找回密码
 加入我们
搜索
      
查看: 726|回复: 5

[CPU] 零刻GTR9PRO本地部署大模型

[复制链接]
发表于 2025-11-15 12:06 | 显示全部楼层 |阅读模式
本帖最后由 igodczh78 于 2025-11-15 13:44 编辑

其实是没啥新东西折腾,本来想看下掌机能不能用上AMD新的385/395
结果一看价格(128G版本)直接16000+,TDP最多就85w,要120W还得外接个水冷模组。。。
这还是掌机吗?不如掌机串流主机
然后就看同样配置一体机价格便宜得多,就趁着双十一入手了零刻GTR9PRO
国补后就12400还有6期免息分期,考虑到内存和SSD现在涨价到离谱,这个价格还是很好得
配置是AMD 395+128G内存+2T SSD
微信图片_20251115115035_15_216.jpg
开箱装机激活就略过了,和装台式机没啥区别

接下来报流水账,更新本地部署大模型的进度
1. 11/15:安装Ollama到非C盘,同时安装两个机器做对比,零刻395@128G,以及9950X3D+5090D
微信图片_20251115120531_16_216.jpg
2. 下载模型:第一个先下了** OSS 120B,据说性能比较好

先请教大佬几个问题:
1. 现在开源的模型哪几个比较好(考虑零刻配置情况)
        语言类:Deepseek R1(准备下32B/70B);** OSS 120B;Gemma2 27B还是Gemma 7B?;Qwen3 32B?;
        图片类:llava 34B;minicpm-v 8B
2. UI界面使用Page Assistant最简单还是有其它推荐?

下一步要做的事情:
1. 接入专业数据库
2. 联网搜索数据
3. 手机远程接入
发表于 2025-11-15 18:02 来自手机 | 显示全部楼层
本帖最后由 pdvc 于 2025-11-15 18:03 编辑

LLM的迭代速度,已经让本地没意义了……

小模型可以试试Qwen NEXT 80B的
 楼主| 发表于 2025-11-15 18:50 | 显示全部楼层
pdvc 发表于 2025-11-15 18:02
LLM的迭代速度,已经让本地没意义了……

小模型可以试试Qwen NEXT 80B的

其实是想自己部署一个专业知识库
发表于 2025-11-15 20:07 来自手机 | 显示全部楼层
igodczh78 发表于 2025-11-15 10:50
其实是想自己部署一个专业知识库

rag langgraph 想workflow就搭个n8n/dify 前端open webui 个人用我就笔记都存md obsidian装copilot插件
发表于 2025-11-15 20:10 来自手机 | 显示全部楼层
igodczh78 发表于 2025-11-15 10:50
其实是想自己部署一个专业知识库

395这种东西和m5之前的apple gpu一样 问题在算力低 会在encode/prefill卡很久 做做短指令生成还可以
发表于 2025-11-15 20:26 来自手机 | 显示全部楼层
igodczh78 发表于 2025-11-15 18:50
其实是想自己部署一个专业知识库

那把知识库部署在本地就完了?用不到显卡……
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-11-16 01:13 , Processed in 0.008119 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表