找回密码
 加入我们
搜索
      
查看: 504|回复: 8

[软件] 现在AI这么强大,能不能本地部署一个专门翻译的?

[复制链接]
发表于 2025-9-18 22:29 来自手机 | 显示全部楼层 |阅读模式
就是各种语言、各种格式的文档,包括各种专业的,输给模型,然后输出翻译好的文档。如果可以,最低需要什么级别的硬件?不需要很快的反应速度,哪怕一天一到两万字的速度都行。
发表于 2025-9-18 22:33 | 显示全部楼层
https://belindoc.com/ 有这还有本地部署的必要么,免费的都够用了,绝对生产力,除了部分ppt格式会有问题
发表于 2025-9-18 22:49 | 显示全部楼层
xinnu89 发表于 2025-9-18 22:33
https://belindoc.com/ 有这还有本地部署的必要么,免费的都够用了,绝对生产力,除了部分ppt格式会有问题 ...

这个效果不错啊
 楼主| 发表于 2025-9-18 23:06 来自手机 | 显示全部楼层
确实不错哇,不过总会有隐私或者说保密之类的问题。
发表于 2025-9-18 23:10 来自手机 | 显示全部楼层
本地一个ollama就可以了 多语言gemma3:12b或者g pt-oss:20b 8g显存就能跑 支持llm翻译的基本都能接入openai格式api 基本都写好了promt 配置一下endpoint url就行 我在手机上用欧路词典就这么干
发表于 2025-9-18 23:14 来自手机 | 显示全部楼层
主要就是小语种翻译,中翻外,你连字母都认不全的话敢直接拿来用吗
再就是合同,法规这种,ai无法负责
发表于 2025-9-18 23:22 | 显示全部楼层
Qwen3-30B-A3B

翻译方面本地小显存部署算性价比最高的,当然别和在线的比就行。
发表于 2025-9-18 23:27 来自手机 | 显示全部楼层
模型不是天然的认识所有语言哦,中英效果好是专门训练的结果。小语种要找支持的模型才行,要不效果太差。
发表于 2025-9-18 23:43 来自手机 | 显示全部楼层
没必要,模型用deepseek fast很快
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-9-19 03:43 , Processed in 0.007770 second(s), 3 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表