古明地觉 发表于 2025-2-17 16:19
70B不是两张24g的卡就能跑起来了。。。
TincoJ 发表于 2025-2-17 16:22
是单机跑我看41.5GB就能跑了,多人用的话是不是需要加卡?
a010301208 发表于 2025-2-17 16:11
70B你整这么麻烦干什么
随便搞个V100的服务器就能跑了,一个月也就200块,而且可以选国外机房,你科学上网 ...
TincoJ 发表于 2025-2-17 16:23
生产行业,不给联网主要是。。。
autobotsop 发表于 2025-2-17 16:12
同问 服务器上挂了3张4090 内存128GB 等待部署70B 看了一下CPU不支持AMX指令集 和清华的Ktransformers无缘 ...
awpak78 发表于 2025-2-17 16:27
半块RTX4090 玩转70B大语言模型
https://www.chiphell.com/thread-2621437-1-1.html
(出处: Chiphell - 分 ...
nagashinn 发表于 2025-2-17 16:26
人用还是程序用?
程序用跟着其他机器云厂商走。人用,你们可真奢侈。
a010301208 发表于 2025-2-17 16:26
建议跑这个原版量化的https://unsloth.ai/blog/deepseekr1-dynamic#running%20r1
那些70B 32B都不是原版 ...
TincoJ 发表于 2025-2-17 16:38
我看过这个,老板意思是可以继续加卡去跑这个671B,主要是担心扛不住内网的用户,token速度低。
所以想着 ...
a010301208 发表于 2025-2-17 16:40
如果你用的是服务器主板的话,24G显存加8根32G内存就足够跑起来这个了,后面运行速度无非就是继续加显卡 ...
TincoJ 发表于 2025-2-17 16:49
我用了一台淘汰的服务器上的虚拟机,给了50核,200GB内存,但是跑32b的速度都不算太理想,可能是CPU太老 ...
a010301208 发表于 2025-2-17 16:53
你是直接硬跑的吧,那肯定速度不对啊,参考这个https://github.com/kvcache-ai/ktransformers
还有就是 ...
autobotsop 发表于 2025-2-17 08:12
同问 服务器上挂了3张4090 内存128GB 等待部署70B 看了一下CPU不支持AMX指令集 和清华的Ktransformers无缘 ...
TincoJ 发表于 2025-2-17 16:23
生产行业,不给联网主要是。。。
a010301208 发表于 2025-2-17 16:11
70B你整这么麻烦干什么
随便搞个V100的服务器就能跑了,一个月也就200块,而且可以选国外机房,你科学上网 ...
港城钢铁侠 发表于 2025-2-17 19:29
哪家的云服务器这么便宜啊?
a010301208 发表于 2025-2-17 16:53
你是直接硬跑的吧,那肯定速度不对啊,参考这个https://github.com/kvcache-ai/ktransformers
还有就是 ...
autobotsop 发表于 2025-2-17 16:12
同问 服务器上挂了3张4090 内存128GB 等待部署70B 看了一下CPU不支持AMX指令集 和清华的Ktransformers无缘 ...
lyys 发表于 2025-2-17 20:29
最近这股风啊,得散了!搞得全民ds,什么14、32、70B,都是渣渣,倒是把买教程的人赚惨了。
671B fp16可是1 ...
流浪的疾风 发表于 2025-2-18 08:40
兄弟,跟你差不多情况,11万出头,thinkstation px 双1850电源 2cpu 128gb 3 4090,70b的6位,还行。 ...
TincoJ 发表于 2025-2-18 14:54
目前就在对比PX以及H3C的R4900了。
4卡的话预算是都超了
欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) | Powered by Discuz! X3.5 |