交互式数字人单位装机求大佬们推荐配置!!!
本帖最后由 xiaotian945 于 2025-5-26 22:30 编辑单位有个60W的项目,想搞个数字模拟人,对于这个模拟人的需求就是对话交互,可以本地以及单位服务器AI训练学习,可以精准喂数据(个性化问答内容),
同时链接DEPPSEEK
还有一个物联网管理平台服务器(智慧康养),虽然我不懂服务器的硬件,但是供货商给我提供如下配置。。。。。感觉好古董,我也是无语了
如下:
1:支撑数智人模型与 DeepSeek 交互服务器:
CPU:英特尔至强金牌 5218,16 核心 32 线程,主频 2.3GHz
内存:128GB DDR4 3200MHz
硬盘:4TB 企业级 SAS 硬盘,组建 RAID 阵列,以提供更高的数据读写性能和数据安全性
网卡:2 个千兆以太网接口支持高速数据传输,满足大量健康数据的长期存储和快速访问需求
2:智慧康养系统服务器:
CPU:英特尔至强铂金 8280,28 核心 56 线程,主频 2.7GHz 及以上
内存:128GB DDR4 3200MHz
硬盘:1TB 企业级 SAS 硬盘,组建 RAID 阵列,以提供更高的数据读写性能和数据安全性
网卡:2 个千兆以太网接口支持高速数据传输,满足大量健康数据的长期存储和快速访问需求
——————————————————————————————————————————————————
请大佬有懂行的,能推荐更新一下配置吗,服务器显卡肯定是要上的,我准备让他给上2块4090 48G,剩下的我就不懂了,求大佬给与帮助! 雨季不再来 发表于 2025-5-26 22:32
现在还用SAS硬盘?供应商是在清库存吧。很明显应该上高速固态!另外,内存也太小了。 ...
是啊,整个这个配置我没一个看的上的,这些硬件加一起估计2000就搞定了,我虽然不懂服务器硬件,但是给的也太拉了 网卡:2 个千兆以太网接口支持高速数据传输
我他妈笑死了
——版里搞软路由都看不上的配置 银月 发表于 2025-5-26 22:35
网卡:2 个千兆以太网接口支持高速数据传输
我他妈笑死了
他们就忽悠都不懂的 你说这逼单子是 deepseek 拉的我都信 xy. 发表于 2025-5-26 22:37
你说这逼单子是 deepseek 拉的我都信
没有,deepseek写的比它高10个档次,但是基本写的是游戏电脑 xiaotian945 发表于 2025-5-26 22:36
他们就忽悠都不懂的
我之前给人推荐的G493-ZB3+双路9654+24*64g内存,显卡丰俭由人,正常二十万,gpu多点四十万也就下来了 60万的项目你只上2块48G?[偷笑] 银月 发表于 2025-5-26 22:43
我之前给人推荐的G493-ZB3+双路9654+24*64g内存,显卡丰俭由人,正常二十万,gpu多点四十万也就下来了 ...
到是用不到那么好的,因为还有训练计算维护的费用,他们还要赚钱,尤其是单位这种,我感觉60W怎么也得给配2个5万的主机吧,5万的有什么推荐吗大佬 60w的项目含泪赚 50 万[狂笑] a010301208 发表于 2025-5-26 22:48
60万的项目你只上2块48G?
对,因为不进行图形学习,只有语言类学习,还有他们开发软件啥的,最大的头是软件+维护,还有企事业单位的虚高报价,你懂的,能上2个4090就不错了 xiaotian945 发表于 2025-5-26 22:56
对,因为不进行图形学习,只有语言类学习,还有他们开发软件啥的,最大的头是软件+维护,还有企事业单位 ...
先确认用什么模型吧,用多少参数的,是不是要微调,你这项目重点就2个,1就是显卡的支出,2那就是这项目员工的工资了。
你如果显卡达不到门槛都是白说 a010301208 发表于 2025-5-26 23:00
先确认用什么模型吧,用多少参数的,是不是要微调,你这项目重点就2个,1就是显卡的支出,2那就是这项目 ...
Transformer,16/32B就行了吧,70B好像用不起 xiaotian945 发表于 2025-5-26 14:56
对,因为不进行图形学习,只有语言类学习,还有他们开发软件啥的,最大的头是软件+维护,还有企事业单位 ...
你都接deepseek了那肯定是供应商api 本地就个rag有啥可训练的 跑个几百m嵌入模型了不得了 这意思是要存证据以后拉廉政检举平台是吧 YsHaNg 发表于 2025-5-26 23:09
你都接deepseek了那肯定是供应商api 本地就个rag有啥可训练的 跑个几百m嵌入模型了不得了 这意思是要存证 ...
还是要本地部署的,因为单位网不行,别回头网不行,回答不了,卡了,就不好了 xiaotian945 发表于 2025-5-26 23:09
Transformer,16/32B就行了吧,70B好像用不起
[流汗] YsHaNg 发表于 2025-5-26 23:09
你都接deepseek了那肯定是供应商api 本地就个rag有啥可训练的 跑个几百m嵌入模型了不得了 这意思是要存证 ...
本地部署-回答单位特殊内容,deepseek-回答单位内容意外的,我是这么理解的啊 xiaotian945 发表于 2025-5-26 15:09
Transformer,16/32B就行了吧,70B好像用不起
现在主流g p t-2之后全是transformer架构的
moe模型显存大于激活参数随便跑 qwen3 235b-a22b q4量化显存+内存能装下141gb 有个20g显存加速激活层就行 YsHaNg 发表于 2025-5-26 23:18
现在主流g p t-2之后全是transformer架构的
moe模型显存大于激活参数随便跑 qwen3 235b-a22b q4量化显存+ ...
大佬能给根据需求,给一份完整的配置单吗?我好和供货商打架去,主要AI这块我是真不懂啊 xiaotian945 发表于 2025-5-26 15:19
大佬能给根据需求,给一份完整的配置单吗?我好和供货商打架去,主要AI这块我是真不懂啊 ...
你也没定好用啥模型啊=.= 还有用哪个推理框架 外围rag用langgrapg还是什么 以及vdb种种 YsHaNg 发表于 2025-5-26 23:18
现在主流g p t-2之后全是transformer架构的
moe模型显存大于激活参数随便跑 qwen3 235b-a22b q4量化显存+ ...
我看别人给我推个这个配置
CPU:AMD EPYC 9654(96核192线程,极致并行计算)
内存:128GB DDR5 ECC(保障大模型稳定性)
存储:8TB NVMe SSD RAID阵列(高速数据吞吐)
GPU:双NVIDIA H100(80GB显存×2,支持千亿级模型微调)
推理速度:100+ Token/s(可部署70B以上参数模型,如**-4级模型)
模型支持:实时视频理解、多语言翻译、3D渲染等复杂任务 公家单位采购还是买正规货吧, 4090 48G不可靠, 两张RTX5880 Ada容量一样, xiaotian945 发表于 2025-5-26 15:25
我看别人给我推个这个配置
CPU:AMD EPYC 9654(96核192线程,极致并行计算)
这不挺好滴嘛 潜力大并发量足 你能搞到h100就行 不需要极端性能市面上能用的开源中号模型都能跑起来 反正这年头phi4-reasoning:14b-plus这种体量的都能benchmark砍DeepSeek-r1:671b 这东西才11gb大小 YsHaNg 发表于 2025-5-26 23:31
这不挺好滴嘛 潜力大并发量足 你能搞到h100就行 不需要极端性能市面上能用的开源中号模型都能跑起来 反正 ...
这个真搞不到,也超供货商利润点了,退一步是选5880还是4090啊? xiaotian945 发表于 2025-5-26 23:36
这个真搞不到,也超供货商利润点了,退一步是选5880还是4090啊?
你不微调,那没必要H100,至于qwen3 235b-a22b,建议Q8以上量化,Q4还是弱智了点 a010301208 发表于 2025-5-26 15:38
你不微调,那没必要H100,至于qwen3 235b-a22b,建议Q8以上量化,Q4还是弱智了点 ...
q8以上好是好 就是会挤占上下文空间影响retrieve效果 不过极限也就16k了 YsHaNg 发表于 2025-5-26 23:41
q8以上好是好 就是会挤占上下文空间影响retrieve效果 不过极限也就16k了
你预算足够,而且你一开始说用48G魔改,那4张吧,也就8万多,比你H100便宜的多 a010301208 发表于 2025-5-26 15:45
你预算足够,而且你一开始说用48G魔改,那4张吧,也就8万多,比你H100便宜的多 ...
那是楼主啊 咱们这种自家小作坊可玩不起 YsHaNg 发表于 2025-5-26 23:50
那是楼主啊 咱们这种自家小作坊可玩不起
他能买2张H100,那确实4张魔改对他来说小意思[偷笑]
页:
[1]
2