Chiphell - 分享与交流用户体验

标题: deepseek第六天的开源,老黄这次是真要凉凉…… [打印本页]

作者: 理智的边缘    时间: 2025-3-1 21:59
标题: deepseek第六天的开源,老黄这次是真要凉凉……
deepseek开源了它的推理成本……DeepSeek V3/R1 所有推理不到2500张H800

单机输出 tokens效率比H100 提升了15倍

有人算过,已现在的H800的算力,2W张卡就能够全中国人所有人用。



作者: 晓古城    时间: 2025-3-1 22:07
一些人开始默不作声了
作者: vasomax    时间: 2025-3-1 22:08
8299  5090D?
作者: a010301208    时间: 2025-3-1 22:11
算力需求无上限,别只看眼前,不过英伟达垄断很快就无了。

未来人人都要有机器人,工厂,军队更是大量需要,不可能接入API的,每台都需要独立芯片,不然你的财富就是那些资本家的了。

DS的出现首先杀死是奥特曼这种闭源而已,对于所有芯片厂是利好
作者: manwomans    时间: 2025-3-1 22:13
所以我就一直说少看点国内打鸡血的蠢货自媒体
看多了降智
推理一直就不依赖cuda
这块老黄压根就没护城河
但是做训练现在只有老黄一家最快
举个最简单的例子
共军小米加步枪打赢了平型关大捷
所以飞机大炮就不需要了吗
有了飞机大炮只能事半功倍
作者: ra2999    时间: 2025-3-1 22:14
那样需求也会大15倍,够用就很抽象
作者: darkness66201    时间: 2025-3-1 22:15
没有人需要超过640KB内存
作者: pingji    时间: 2025-3-1 22:17
提示: 作者被禁止或删除 内容自动屏蔽
作者: gartour    时间: 2025-3-1 22:22
这不是1个月前就讨论烂了的话题吗。

怎么可能够用。现在的ai行业还在探索阶段,对算力需求如果不考虑预算可以说是看不到上限的。

不要说增长10多倍,增长1000倍都满足不了。

作者: xcdry    时间: 2025-3-1 22:25
算法再高也得硬件支持,AI爆发以后算力根本不够,之前国内那些AI都是什么辣鸡玩意
作者: jcd_chh    时间: 2025-3-1 22:27
不能说明问题啊,后面新的模型很快就会继续加大规模,加大算力需求,然后全国需求量也会飞速上升,铲子只会越卖越多
作者: wuxi001    时间: 2025-3-1 22:27
deepseek 自己曾经回答自己源自 CHAT**, 所以他们根本不用什么AI算力卡。有CHAT** 在,DEEPSEEK 就可以吸取足够养分。在获得答案后进行推理,所以推理的成功率等于CHAT** 的功力。
作者: zlcrxp    时间: 2025-3-1 22:29
最大的利空是 老黄和openai的AI逻辑出现了瑕疵,他们之前经常说的就是2套理论,(1)力大出奇迹(奥特曼:我们主要就是算力多)(2)你买的越多省的越多(老黄:买的少了没到一定规模不赚钱,得多买)
这2个逻辑现在是被实锤给反驳了,所以对他们都是利空。
但是反过来AI芯片的需求,长远来看只是会越来越大,算利空,但是有限。
真的利空还是人们开始关注模型优化算法优化硬件优化

作者: YsHaNg    时间: 2025-3-1 22:30
xcdry 发表于 2025-3-1 14:25
算法再高也得硬件支持,AI爆发以后算力根本不够,之前国内那些AI都是什么辣鸡玩意 ...

咱不能一口痰均匀吐所有头上 qwen家族还是很有意义的
作者: a010301208    时间: 2025-3-1 22:37
xcdry 发表于 2025-3-1 22:25
算法再高也得硬件支持,AI爆发以后算力根本不够,之前国内那些AI都是什么辣鸡玩意 ...

wan2.1还不错,昨天本地试了下,我随便找了个涩图,然后生成了5秒爱情动作片,感觉还行
作者: Naraku    时间: 2025-3-1 22:48
看多了这种真的降智,deepseek加深了cuda的护城河,第二请问deepseek每一个token都收费吗?
作者: 21mm    时间: 2025-3-1 23:00
说来说去 还是nvidia 为主,只是说部分环节取巧了而已 并没有改变对硬件需求的改变。如同发明蒸汽机 就减少了对能源的需求?
作者: PPXG    时间: 2025-3-1 23:07
你猜猜推理和训练区别在哪里
作者: 大地雷羽    时间: 2025-3-1 23:32
手枪能杀人,难道机枪就被淘汰了?

我恨不得买导弹干架呢.
作者: jihuan    时间: 2025-3-1 23:37
2W张卡就够?中国跑deepseek的卡20w张都不止吧
作者: oolmfoo    时间: 2025-3-1 23:38
推理 =/= 训练
作者: klxq15    时间: 2025-3-1 23:46
老黄凉凉是不可避免的结局,70%利润是上下游无法接受的
作者: 卢奇亚诺    时间: 2025-3-2 00:53
小丑的是蜥蜴人的meta吧,虽然我觉得他现在更像是一直炒股价
作者: yangzi123aaa20    时间: 2025-3-2 01:07
a010301208 发表于 2025-3-1 22:11
算力需求无上限,别只看眼前,不过英伟达垄断很快就无了。

未来人人都要有机器人,工厂,军队更是大量需要 ...

算力无上限这点已经被G/PT4.5官宣打破了,成本提高了100倍,成绩只提高了4.5%,唯一亮点是“情商变高了”
G/PT4.5发布之后老黄股价一泻千里
作者: yangzi123aaa20    时间: 2025-3-2 01:10
zlcrxp 发表于 2025-3-1 22:29
最大的利空是 老黄和openai的AI逻辑出现了瑕疵,他们之前经常说的就是2套理论,(1)力大出奇迹(奥特曼: ...

长远来看我们都死了
现在美股七巨头的股价基本都靠“AGI五年内到来”支撑,算力越强越有可能抢到AGI门票,但是事实嘛,你看G/PT4.5的崩溃性表现就知道了
LLM已经摸到天花板了,深挖效率卖api是支撑不了几万亿股价的
作者: a010301208    时间: 2025-3-2 01:36
yangzi123aaa20 发表于 2025-3-2 01:07
算力无上限这点已经被G/PT4.5官宣打破了,成本提高了100倍,成绩只提高了4.5%,唯一亮点是“情商变高了” ...

黄世仁黄了不代表算力就够了,只不过别人也有机会了

算力不是只有训练才需要,你的这个前提是未来所有人都用API,每天家里的机器人把你的所有隐私密码资料一举一动全部和服务器交互,甚至记录你一天几次多人运动,你觉得如何

如果你觉得不行,那么全人类至少需要几十亿块最先进的芯片,以台积电的产能,50年都造不完,甚至还需要考虑更新换代
作者: 男中音钢琴家    时间: 2025-3-2 01:41
这帖应该扔水区
作者: babur    时间: 2025-3-2 01:47
前提是已经所有人都有AI需求,这个前提下的延伸是合理的
但现况是就连企业都还没普及开来
我也认为企业普遍运用AI的未来很近很近了
但这过程中的几个月、一年、两三年,怎么发展还是模糊的
作者: yangzi123aaa20    时间: 2025-3-2 01:49
a010301208 发表于 2025-3-2 01:36
黄世仁黄了不代表算力就够了,只不过别人也有机会了

算力不是只有训练才需要,你的这个前提是未来所有人 ...

个人用的话需要的是大显存,API现在平均每用户也就20TK/s,这个速度用AMD那个新集显就能达成
作者: a010301208    时间: 2025-3-2 01:58
yangzi123aaa20 发表于 2025-3-2 01:49
个人用的话需要的是大显存,API现在平均每用户也就20TK/s,这个速度用AMD那个新集显就能达成 ...

所以说英伟达未来垄断很难了,不过要达到AICG现在这些都远远不够,你也不想机器人帮你做饭的时候因为延迟操作失误把家烧了吧
作者: wikieden    时间: 2025-3-2 02:08
这把没涨价理由了
作者: ykdo    时间: 2025-3-2 02:25
2500张H800的谣传你也信?
作者: 碳水化合物    时间: 2025-3-2 03:18
ykdo 发表于 2025-3-2 02:25
2500张H800的谣传你也信?

DeepSeek官号在知乎上发的新专栏文章《DeepSeek-V3 / R1 推理系统概览》中提及的部分
线上系统的实际统计数据

DeepSeek V3 和 R1 的所有服务均使用 H800 GPU,使用和训练一致的精度,即矩阵计算和 dispatch 传输采用和训练一致的 FP8 格式,core-attention 计算和 combine 传输采用和训练一致的 BF16,最大程度保证了服务效果。

另外,由于白天的服务负荷高,晚上的服务负荷低,因此我们实现了一套机制,在白天负荷高的时候,用所有节点部署推理服务。晚上负荷低的时候,减少推理节点,以用来做研究和训练。在最近的 24 小时里(北京时间 2025/02/27 12:00 至 2025/02/28 12:00),DeepSeek V3 和 R1 推理服务占用节点总和,峰值占用为 278 个节点,平均占用 226.75 个节点(每个节点为 8 个 H800 GPU)。
https://zhuanlan.zhihu.com/p/27181462601

278*8=2224

另外一个是他们在V3的论文中所提到的
3. Infrastructures
3.1. Compute Clusters
DeepSeek-V3 is trained on a cluster equipped with 2048 NVIDIA H800 GPUs. Each node in
the H800 cluster contains 8 GPUs connected by NVLink and NVSwitch within nodes.


作者: 碳水化合物    时间: 2025-3-2 03:33
楼主说的“ 有人算过,已现在的H800的算力,2W张卡就能够全中国人所有人用”这观点出处不知道在哪儿,我只在s1论坛讨论帖见过这个量级的,但那是少打了个零的笔误。

我看见的两位网友简单计算的结论是20万、24万张h800能暂时满足目前国内的需求,之后就不清楚了。
作者: 8xwob3ko    时间: 2025-3-2 06:35
AI如果能力不继续突破,那能使用的场景实在有限,NV赌的是这个。R1也好o3也好** 4.5也好都还远达不到真正质变的程度,现在的能力主要还是写一些车轱辘话+少量辅助。能力没突破幻觉没解决那还差得远。
作者: porsche4me    时间: 2025-3-2 07:29
gartour 发表于 2025-3-1 22:22
这不是1个月前就讨论烂了的话题吗。

怎么可能够用。现在的ai行业还在探索阶段,对算力需求如果不考虑预算 ...

正解! 多领域会全面部署AI, 到时候还是不够.
作者: pingji    时间: 2025-3-2 07:45
提示: 作者被禁止或删除 内容自动屏蔽
作者: Kavzero    时间: 2025-3-2 07:55
DeepSeek爆火推动英伟达晶片在华需求激增

作者: 理智的边缘    时间: 2025-3-2 09:43
ykdo 发表于 2025-3-2 02:25
2500张H800的谣传你也信?

……下面人家都发了论文了,不懂英文可以去知乎上看中文版。上来就质疑就显得你很蠢。
作者: 富哥V我五万    时间: 2025-3-2 09:43
本帖最后由 富哥V我五万 于 2025-3-2 10:28 编辑

这就凉凉了?真能吹,顶多让老黄少赚点米,英伟达现在的股价比deepseek面世前都高。
作者: 理智的边缘    时间: 2025-3-2 09:48
本帖最后由 理智的边缘 于 2025-3-2 09:54 编辑
碳水化合物 发表于 2025-3-2 03:18
DeepSeek官号在知乎上发的新专栏文章《DeepSeek-V3 / R1 推理系统概览》中提及的部分

278*8=2224


我也不知道这帖子里,喷我的人是什么个心态。哪怕它去看一下deepseek的论文。

部署推理,用H800直接比B200的效率还高,我不知道 AI公司有什么必要在买B200。

**4.5已经发布了,外网的基本上下了结论,就是预训练到头了,而且老黄现在已经开始公开吹 后训练了……


下面是我的引用:

"NV在8卡H200节点上优化版本的性能(5899t/s)只有DS在8卡H800节点性能的~84%。

说到这里,我们得解释一下:H200的内存带宽显著优于H800。H200采用了最新的HBM3e内存技术,其带宽显著提升 —— 公开资料显示,其内存带宽可达到约4.8 TB/s,而H800所使用的HBM3内存带宽限制,通常只有大约1.7 TB/s左右。众所周知,HBM内存带宽对AI训练和推理性能的提升尤为关键。

说到这里,我只能说,DS团队的工程能力简直令人发指。

不由地想,现有的大规模算力基础设施(A100,H00)虽然已经投入使用多年,但其潜力远未完全释放。

所以,对大规模Capex投入的厂商来说,当务之急是继续大规模投入?还是应该投入工程力量挖掘潜力"



面对deepseek的论文,如果你是老板,是继续买B200堆算力,还是跟着deepseek继续对已有的H100挖潜,这是老板们要进行成本核算的。

面对90%毛利的算力卡,我想没有一个老板想继续给老黄送钱吧。


作者: michaelzxp    时间: 2025-3-2 09:51
低成本不意味着不需要高算力,老黄说得对,不矛盾。只是需求量曾迫切增长没那么迫切了,就看后续卷算法的程度了
作者: ruo101    时间: 2025-3-2 09:57
那些玩外股的· ·早一个多星期已经开始骂娘了··

不明白 国内有好东西 不是值得高兴么··
作者: nihilum    时间: 2025-3-2 09:58
访问数越来越多,外加Deepseek本身模型在迭代,算力需求肯定越来越高,只不过NV的垄断优势不明显了而已
作者: fkpwolf    时间: 2025-3-2 10:03
这帖应该扔水区

作者: husky520    时间: 2025-3-2 10:08
darkness66201 发表于 2025-3-1 22:15
没有人需要超过640KB内存

经典语录。。。
作者: wyb4112    时间: 2025-3-2 10:11
华尔街的游戏而已
作者: uprit    时间: 2025-3-2 10:17
要不是买不起,俺也想弄个8卡H200放家里自己用。


作者: dinla    时间: 2025-3-2 10:21
A I N 形成竞争就行 起码成了可能
作者: ykdo    时间: 2025-3-2 10:32
本帖最后由 ykdo 于 2025-3-2 10:33 编辑
理智的边缘 发表于 2025-3-2 09:43
……下面人家都发了论文了,不懂英文可以去知乎上看中文版。上来就质疑就显得你很蠢。 ...


国产论文有啥可信度?吹牛的还少么。
作者: shiangyeh    时间: 2025-3-2 10:38
建议先了解下现在是怎么训练的。

推理从很多年前就不依赖cuda,不然各位mac intel amd用户怎么用上的本地部署llm。
作者: doom4    时间: 2025-3-2 10:53
DS开源后三哥已经吹自己是AI超级大锅了,这个屎一样的民族,不恶心死人决不罢休
作者: yoloh    时间: 2025-3-2 10:56
下次别发这么丢人现眼的言论了。
推理是推理,训练是训练。这两个都拎不清,也敢大言不惭。
作者: iamdefer    时间: 2025-3-2 11:01
幽默

只听说过代码开源,没听说过成本开源的。
作者: kinglfa    时间: 2025-3-2 11:18
a010301208 发表于 2025-3-1 22:11
算力需求无上限,别只看眼前,不过英伟达垄断很快就无了。

未来人人都要有机器人,工厂,军队更是大量需要 ...

这才是正解
作者: xjr12000    时间: 2025-3-2 11:19
咋的?H800是国产的吗?看着就像笑
说来说去你国产的芯片没有一个能用的
你就是再优化效率,还不是要去买英伟达
等你啥时候不需要买它的,再出来唱衰吧
作者: 半锁眉    时间: 2025-3-2 11:25
提示: 作者被禁止或删除 内容自动屏蔽
作者: nn1122    时间: 2025-3-2 11:28
国产GPU芯片哪天真正崛起,才是老黄凉凉了,不过先把AMD和intel的计算卡先超越了来吧
作者: zlcrxp    时间: 2025-3-2 11:39
yangzi123aaa20 发表于 2025-3-2 01:10
长远来看我们都死了
现在美股七巨头的股价基本都靠“AGI五年内到来”支撑,算力越强越有可能抢到AGI门票 ...

这个不好说,AI还是太新,只是发展的非常快,虽然看起来在LLM这里碰壁了,但是谁知道哪天突然就出现另一个黑马。
卖API只是最初级的商业模式,这就和你互联网最早也只是看看门户,但是那不是终点,AGI才是现在知道的终点,也为未来也不是。
作者: los_parrot    时间: 2025-3-2 11:48
在这个帖子里发言并知道opensource week的人不超过3个,哈哈。

很多经典语录比如“训练算力消耗才是大头”,蒸馏啥一看就是tiktok短视频受害者。

这个5小时的长视频,加速1.5倍看完前2小时再来聊ai吧。
https://www.bilibili.com/video/B ... f913a583424a580bcf8
作者: gartour    时间: 2025-3-2 12:21
本帖最后由 gartour 于 2025-3-2 12:22 编辑
理智的边缘 发表于 2025-3-2 09:48
NV在8卡H200节点上优化版本的性能(5899t/s)只有DS在8卡H800节点性能的~84%


很简单,因为可以DS+H200,  性能有可能是30000t/S.

你可以花时间挖潜,但军备竞赛状态,时间不等你。

说白了,好比把100米跑道缩成10米,运动员就可以不卷训练了吗?该怎样还是怎样。大家还是在拼。
作者: Sagitar2009    时间: 2025-3-2 12:35
这反而显得,每个人使用AI成本大幅下降,需求反而更多,毕竟能在更多行业推开
作者: 鬼武人    时间: 2025-3-2 13:30
那还不赶紧全国产化替代,防止被卡脖子?
作者: 声色茶马    时间: 2025-3-2 14:00
a010301208 发表于 2025-3-1 22:11
算力需求无上限,别只看眼前,不过英伟达垄断很快就无了。

未来人人都要有机器人,工厂,军队更是大量需要 ...

附议。算力的需求无上限,AI能干的事儿比全人类能干的事儿的总和多不知道多少倍,把太阳包起来搞个戴森球AI,比起整个宇宙的算力都是渣中渣中渣。

老黄的压力不在于Deepseek节约算力,而在于Deepseek以及未来的各路AI都肉眼可见地开始研究绕开CUDA绕开皮衣卡,对各路GPU甚至是纯CPU的体系疯狂优化。
作者: 声色茶马    时间: 2025-3-2 14:09
理智的边缘 发表于 2025-3-2 09:48
我也不知道这帖子里,喷我的人是什么个心态。哪怕它去看一下deepseek的论文。

部署推理,用H800直接比B2 ...


喷子当然是喷子心态,管你说了什么先喷了再说,出服务器钱的反正是轮子对吧。

现在看起来,对于小规模应用,比如十几个人的中小企业,算力不是太大的问题,显存容量反而是大问题。如果AMD能上马16通道双路的EYPC,再配个DDR6内存,10w以内就能把内存带宽提到1T、容量也1T,我估计九成企业都愿意部署一套自己的DS服务器,比雇一堆1w一个月的文科生CP高太多了。
作者: AMDBOOM    时间: 2025-3-2 14:59
够用只是暂时的,现在的接入量以及需求量在不断上升,多少倍只能是猜了。年内都可能双位数倍率需求上升。
作者: shenqingyi    时间: 2025-3-2 15:24
楼主动动脑子好好想想,你把显卡比作能买东西的钞票,AI好比用钞票能买到的通货,就算AI价格下来了你难道还会嫌钱太多了吗?要是真这样我只能说脑子坏掉了。
作者: nic000fol    时间: 2025-3-2 15:41
不会,反而
作者: westbobo    时间: 2025-3-3 09:33
wuxi001 发表于 2025-3-1 22:27
deepseek 自己曾经回答自己源自 CHAT**, 所以他们根本不用什么AI算力卡。有CHAT** 在,DEEPSEEK 就可以吸 ...

那chat**回答的内容说自己是文心一言是不是chat**也不用算力卡,直接买的百度服务?
作者: chiyiangel    时间: 2025-3-3 09:39
manwomans 发表于 2025-3-1 22:13
所以我就一直说少看点国内打鸡血的蠢货自媒体
看多了降智
推理一直就不依赖cuda

是的 。。。 现在动不动就是 “代替老黄”,我只能说训练市场 99% 都是老黄的 我都感觉有点保守,正儿八经训练 真没看过其他卡
作者: wuxi001    时间: 2025-3-3 09:58
westbobo 发表于 2025-3-3 09:33
那chat**回答的内容说自己是文心一言是不是chat**也不用算力卡,直接买的百度服务? ...

人家说的就是蒸馏,不是原创,他是站在巨人的肩膀上。所以已一发布就震惊四座。
作者: 换了CHH    时间: 2025-3-3 10:03
是不是拖拉机上了飞机跑道就能飞起来?
作者: 我輩樹である    时间: 2025-3-3 10:04
deepseek是quant们展现出的超强工程实力的体现。
作者: westbobo    时间: 2025-3-3 10:07
wuxi001 发表于 2025-3-3 09:58
人家说的就是蒸馏,不是原创,他是站在巨人的肩膀上。所以已一发布就震惊四座。 ...

你可拉倒吧,你都没明白他为啥技惊四座。

牛逼的是算力需求降低到1/10以下

数据蒸馏每个AI都在用

跟数据蒸馏有一毛钱关系

你压根就没明白算力需求和数据蒸馏完全是两个东西
作者: cskeleton    时间: 2025-3-3 11:45
这篇文章应该是去回应尤洋的,一周就这一篇发了知乎
作者: amazinghit    时间: 2025-3-3 12:47
老黄表示,什么?你们买的不是黄卡?

AI生成。。。结论:买买买
2025年各大科技公司正大幅增加对AI算力的投资,相比2024年呈现显著上升趋势。以下是主要公司的投资情况及趋势:
## 科技巨头投资规模

1. 阿里巴巴: 2025年AI投资预计达1300亿元人民币,比2024年增加约533亿元[1][5]。
2. 三大电信运营商: 2025年AI算力投资预计为1000亿元人民币,较2024年增加200亿元[1][5]。
3. Meta、亚马逊、Alphabet和微软: 这四家公司2025年在AI和数据中心方面的总支出预计将达到3200亿美元,相比2024年的2300亿美元大幅增长[6]。
4. 亚马逊: 计划在2025年投资1000亿美元用于AI发展[9]。
5. Meta: 预计2025年至少投入600亿美元用于AI开发[9]。
6. Alphabet (Google): 2025年资本支出预算增加42%,预计达到750亿美元[9]。
7. 微软: 计划在2025年投入800亿美元用于AI数据中心建设[9]。

## 投资趋势分析

1. 投资规模激增: 与2024年相比,2025年各公司的AI投资呈现大幅增长趋势,反映出对AI技术的高度重视和长期战略布局。
2. 基础设施为重点: 投资主要集中在AI硬件基础设施、数据中心和算力网络等方面,为未来AI发展奠定基础[1][5]。
3. 大规模交易主导: 超大规模融资(单笔超过1亿美元)在AI领域融资中占据主导地位,反映出对头部企业的强烈信心[8]。
4. 生态系统布局: 科技巨头通过投资构建自己的AI生态系统,形成相互促进的良性循环[8]。
5. 成本结构变化: 随着AI模型部署规模增加,推理成本可能超过初始训练成本,影响未来投资策略[10]。

总体而言,2025年AI算力投资呈现出规模激增、重点突出、竞争加剧的特点,反映了各大公司对AI技术发展的信心和决心。这一趋势预计将推动AI技术的快速发展和广泛应用。

Sources
[1] AI资本开支,体量有多大? - 华尔街见闻 https://wallstreetcn.com/articles/3741835
[2] The AI Boom of 2025: Big Tech Stocks Set to Soar | Advisorpedia https://www.advisorpedia.com/str ... stocks-set-to-soar/
[3] Nvidia invested $1bn in AI companies in 2024 - Data Center Dynamics https://www.datacenterdynamics.c ... -companies-in-2024/
[4] 2024年AI算力行业趋势:新兴投资机会与技术创新全景解析 - 搜狐 https://www.sohu.com/a/808106470_121902920
[5] AI资本开支,体量有多大? - 新浪财经 https://finance.sina.com.cn/roll ... emtcea8858362.shtml
[6] Tech giants to spend $320 billion on AI in 2025 - The Economic Times https://economictimes.com/news/i ... eshow/118068850.cms
[7] Top 10 AI Investments | AI Magazine https://aimagazine.com/articles/top-10-ai-investments
[8] 投资破千亿美元之后2025年AI市场的六大趋势 - 光明网 https://wlaq.gmw.cn/2025-02/27/content_37875412.htm
[9] 亚马逊2025年重磅投资1000亿美元:全面加速AI发展 - 大屏时代 https://www.dapingtime.com/article/1277.html
[10] Visualizing Big Tech Company Spending On AI Data Centers https://www.visualcapitalist.com ... on-ai-data-centers/
。。。
作者: zxy2001    时间: 2025-3-3 12:50
深挖洞,广积粮。。。算力到用时方恨少。。。
作者: momo77989724    时间: 2025-3-3 13:20
本帖最后由 momo77989724 于 2025-3-3 13:22 编辑

DS反而会加固老黄的地位  
是的 大公司可以不依赖他的卡推理 。。。本来推理各家都有自己的卡  阿里  亚马逊都有自己定制的卡。。。 普通用户用N卡只是兼容性更好  毕竟没有能力优化  钱也不够到位没法自己去搞

DS实际上扩大了这块的用户群体 和小的开发团体  这些新增的需求 本身人力技术有限  99%会选择老黄的卡   长久以往反而是加固他的行业需求。。。

比如推理以前大概就80%用阿黄的卡  DS铺开了之后你可能会在后面1-3年发现 推理这块被他垄断了 95%以上  
作者: fairness    时间: 2025-3-3 13:38
2W张H100, 算一张3.5W美金, 计算卡只要7亿美金; 加上其他外设和互联,10亿美金满足了全中国的需求。

真的市场天花板就这么一点,要那么多做国产自主的AI芯片干什么?  我看每一家的估值都比这个高很多倍了。

如果你说的是真的,是不是H100真的卖的不贵?
作者: fairness    时间: 2025-3-3 13:42
我輩樹である 发表于 2025-3-3 10:04
deepseek是quant们展现出的超强工程实力的体现。

很有道理啊。
作者: Kage    时间: 2025-3-3 13:43
ruo101 发表于 2025-3-2 09:57
那些玩外股的· ·早一个多星期已经开始骂娘了··

不明白 国内有好东西 不是值得高兴么·· ...

那是爱国的才高兴

恨国的那就很不高兴了
作者: allensakura    时间: 2025-3-3 13:45
DS搞了一堆黄卡hopper架构才能用的极端优化,再次大幅拉大了黄卡跟其他厂商实际性能差距
你居然跟我说老黄药丸?

对我来说这次发布会是很失望的,一点都没提ds现在最差劲的幻觉现象改进
以幻觉表现来说,ds跟本是不能用的水平
作者: darkness66201    时间: 2025-3-3 13:47
声色茶马 发表于 2025-3-2 14:09
喷子当然是喷子心态,管你说了什么先喷了再说,出服务器钱的反正是轮子对吧。

现在看起来,对于小规模应 ...

啊这,光一个EPYC官方价格就得10万了,你拿大船货来说事......
作者: fengpc    时间: 2025-3-3 13:55
卢奇亚诺 发表于 2025-3-2 00:53
小丑的是蜥蜴人的meta吧,虽然我觉得他现在更像是一直炒股价

不管用谁家的GPU,大部分在用pytorch,这就是meta的开源项目
作者: enjoywoo    时间: 2025-3-3 14:30
觉得算力够就不想多说了
作者: pooChai    时间: 2025-3-3 19:51
当初LED灯泡被发明后,专家预测全球照明用电量会逐年递减,实际上照明用电量反而越来越多了
作者: deng198679    时间: 2025-3-3 20:11
杰文斯悖论,科技进步带来的成本下降,反而导致更大的资源消耗,人人都能玩大模型,反而算力需求更高
作者: noah.zhu    时间: 2025-3-3 20:39
对算力的需求是源源不断的,deepseek 只是让成本下降
作者: snowgundam    时间: 2025-3-3 21:02
本帖最后由 snowgundam 于 2025-3-3 21:03 编辑

说够用的是没写过长思维链型的智能体,groq这么快的方案都撑不住




欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) Powered by Discuz! X3.5