找回密码
 加入我们
搜索
      
查看: 9115|回复: 25

[显卡] 发现豆包PC版更新了本地部署模型功能,支持数据本地处理,目前只支持N卡

[复制链接]
发表于 2025-6-3 21:51 来自手机 | 显示全部楼层
用ollama/vllm不好吗 再配个open webui/cherry studio之类的前端 想改啥改啥 顺手还能接langgraph cline zed之类 被一个前端圈地大可不必
发表于 2025-6-3 22:49 | 显示全部楼层
本帖最后由 YsHaNg 于 2025-6-3 14:51 编辑
powerduke 发表于 2025-6-3 13:55
目前豆包在线版我觉得挺好用,免费,速度快,准确度够用


google ai studio白送gemini pro 所以你到底是要讨论在线远程llm还是离线本地部署模型
发表于 2025-6-4 16:44 | 显示全部楼层
powerduke 发表于 2025-6-4 03:21
都可以随便聊聊咯,线上线下各有满足的应用场景,本地知识库更像部署的本地分析引擎,差点意思但放心。

...

本地我是接入个人文件夹和笔记 主用ollama作推理框架 obsidian和open webui作为rag的前端 外加langgraph和dify 本地全开源框架的好处是可以随便接mcp server甚至a2a资源 不管公开的还是自己建立的 有问题可以随意调 OpenAI Agents SDK就会麻烦很多 遇到问题就得靠猜 我在gdpr dsa的保护伞下 应该尽量用体量更大的厂商 使用欧区azure deepseek-r1不成问题 白嫖到r2出来都够了 套一层litellm就能兼容大部分前端程序
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-9-23 06:10 , Processed in 0.007661 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表