现在AI这么强大,能不能本地部署一个专门翻译的?
就是各种语言、各种格式的文档,包括各种专业的,输给模型,然后输出翻译好的文档。如果可以,最低需要什么级别的硬件?不需要很快的反应速度,哪怕一天一到两万字的速度都行。 https://belindoc.com/ 有这还有本地部署的必要么,免费的都够用了,绝对生产力,除了部分ppt格式会有问题 xinnu89 发表于 2025-9-18 22:33https://belindoc.com/ 有这还有本地部署的必要么,免费的都够用了,绝对生产力,除了部分ppt格式会有问题 ...
这个效果不错啊 确实不错哇,不过总会有隐私或者说保密之类的问题。 本地一个ollama就可以了 多语言gemma3:12b或者g pt-oss:20b 8g显存就能跑 支持llm翻译的基本都能接入openai格式api 基本都写好了promt 配置一下endpoint url就行 我在手机上用欧路词典就这么干 主要就是小语种翻译,中翻外,你连字母都认不全的话敢直接拿来用吗
再就是合同,法规这种,ai无法负责 Qwen3-30B-A3B
翻译方面本地小显存部署算性价比最高的,当然别和在线的比就行。 模型不是天然的认识所有语言哦,中英效果好是专门训练的结果。小语种要找支持的模型才行,要不效果太差。 没必要,模型用deepseek fast很快
页:
[1]