听弦 发表于 2025-9-18 22:29

现在AI这么强大,能不能本地部署一个专门翻译的?

就是各种语言、各种格式的文档,包括各种专业的,输给模型,然后输出翻译好的文档。如果可以,最低需要什么级别的硬件?不需要很快的反应速度,哪怕一天一到两万字的速度都行。

xinnu89 发表于 2025-9-18 22:33

https://belindoc.com/ 有这还有本地部署的必要么,免费的都够用了,绝对生产力,除了部分ppt格式会有问题

老饭 发表于 2025-9-18 22:49

xinnu89 发表于 2025-9-18 22:33
https://belindoc.com/ 有这还有本地部署的必要么,免费的都够用了,绝对生产力,除了部分ppt格式会有问题 ...

这个效果不错啊

听弦 发表于 2025-9-18 23:06

确实不错哇,不过总会有隐私或者说保密之类的问题。

YsHaNg 发表于 2025-9-18 23:10

本地一个ollama就可以了 多语言gemma3:12b或者g pt-oss:20b 8g显存就能跑 支持llm翻译的基本都能接入openai格式api 基本都写好了promt 配置一下endpoint url就行 我在手机上用欧路词典就这么干

karaki 发表于 2025-9-18 23:14

主要就是小语种翻译,中翻外,你连字母都认不全的话敢直接拿来用吗
再就是合同,法规这种,ai无法负责

iamdefer 发表于 2025-9-18 23:22

Qwen3-30B-A3B

翻译方面本地小显存部署算性价比最高的,当然别和在线的比就行。

l0stc0mpass 发表于 2025-9-18 23:27

模型不是天然的认识所有语言哦,中英效果好是专门训练的结果。小语种要找支持的模型才行,要不效果太差。

ConverSun 发表于 2025-9-18 23:43

没必要,模型用deepseek fast很快
页: [1]
查看完整版本: 现在AI这么强大,能不能本地部署一个专门翻译的?