找回密码
 加入我们
搜索
      
查看: 10825|回复: 88

[显卡] deepseek第六天的开源,老黄这次是真要凉凉……

[复制链接]
发表于 2025-3-1 21:59 | 显示全部楼层 |阅读模式
deepseek开源了它的推理成本……DeepSeek V3/R1 所有推理不到2500张H800

单机输出 tokens效率比H100 提升了15倍

有人算过,已现在的H800的算力,2W张卡就能够全中国人所有人用。


发表于 2025-3-1 22:07 | 显示全部楼层
一些人开始默不作声了
发表于 2025-3-1 22:08 | 显示全部楼层
8299  5090D?
发表于 2025-3-1 22:11 | 显示全部楼层
算力需求无上限,别只看眼前,不过英伟达垄断很快就无了。

未来人人都要有机器人,工厂,军队更是大量需要,不可能接入API的,每台都需要独立芯片,不然你的财富就是那些资本家的了。

DS的出现首先杀死是奥特曼这种闭源而已,对于所有芯片厂是利好
发表于 2025-3-1 22:13 | 显示全部楼层
所以我就一直说少看点国内打鸡血的蠢货自媒体
看多了降智
推理一直就不依赖cuda
这块老黄压根就没护城河
但是做训练现在只有老黄一家最快
举个最简单的例子
共军小米加步枪打赢了平型关大捷
所以飞机大炮就不需要了吗
有了飞机大炮只能事半功倍
发表于 2025-3-1 22:14 | 显示全部楼层
那样需求也会大15倍,够用就很抽象
发表于 2025-3-1 22:15 来自手机 | 显示全部楼层
没有人需要超过640KB内存
发表于 2025-3-1 22:17 来自手机 | 显示全部楼层
有没有一种可能deepseek还根本不够成熟,想蒸馏,原始模型是怎么训练出来的?
发表于 2025-3-1 22:22 | 显示全部楼层
这不是1个月前就讨论烂了的话题吗。

怎么可能够用。现在的ai行业还在探索阶段,对算力需求如果不考虑预算可以说是看不到上限的。

不要说增长10多倍,增长1000倍都满足不了。
发表于 2025-3-1 22:25 | 显示全部楼层
算法再高也得硬件支持,AI爆发以后算力根本不够,之前国内那些AI都是什么辣鸡玩意
发表于 2025-3-1 22:27 | 显示全部楼层
不能说明问题啊,后面新的模型很快就会继续加大规模,加大算力需求,然后全国需求量也会飞速上升,铲子只会越卖越多
发表于 2025-3-1 22:27 | 显示全部楼层
deepseek 自己曾经回答自己源自 CHAT**, 所以他们根本不用什么AI算力卡。有CHAT** 在,DEEPSEEK 就可以吸取足够养分。在获得答案后进行推理,所以推理的成功率等于CHAT** 的功力。
发表于 2025-3-1 22:29 | 显示全部楼层
最大的利空是 老黄和openai的AI逻辑出现了瑕疵,他们之前经常说的就是2套理论,(1)力大出奇迹(奥特曼:我们主要就是算力多)(2)你买的越多省的越多(老黄:买的少了没到一定规模不赚钱,得多买)
这2个逻辑现在是被实锤给反驳了,所以对他们都是利空。
但是反过来AI芯片的需求,长远来看只是会越来越大,算利空,但是有限。
真的利空还是人们开始关注模型优化算法优化硬件优化
发表于 2025-3-1 22:30 来自手机 | 显示全部楼层
xcdry 发表于 2025-3-1 14:25
算法再高也得硬件支持,AI爆发以后算力根本不够,之前国内那些AI都是什么辣鸡玩意 ...

咱不能一口痰均匀吐所有头上 qwen家族还是很有意义的
发表于 2025-3-1 22:37 | 显示全部楼层
xcdry 发表于 2025-3-1 22:25
算法再高也得硬件支持,AI爆发以后算力根本不够,之前国内那些AI都是什么辣鸡玩意 ...

wan2.1还不错,昨天本地试了下,我随便找了个涩图,然后生成了5秒爱情动作片,感觉还行
发表于 2025-3-1 22:48 | 显示全部楼层
看多了这种真的降智,deepseek加深了cuda的护城河,第二请问deepseek每一个token都收费吗?
发表于 2025-3-1 23:00 | 显示全部楼层
说来说去 还是nvidia 为主,只是说部分环节取巧了而已 并没有改变对硬件需求的改变。如同发明蒸汽机 就减少了对能源的需求?
发表于 2025-3-1 23:07 来自手机 | 显示全部楼层
你猜猜推理和训练区别在哪里
发表于 2025-3-1 23:32 | 显示全部楼层
手枪能杀人,难道机枪就被淘汰了?

我恨不得买导弹干架呢.
发表于 2025-3-1 23:37 来自手机 | 显示全部楼层
2W张卡就够?中国跑deepseek的卡20w张都不止吧
发表于 2025-3-1 23:38 | 显示全部楼层
推理 =/= 训练
发表于 2025-3-1 23:46 | 显示全部楼层
老黄凉凉是不可避免的结局,70%利润是上下游无法接受的
发表于 2025-3-2 00:53 来自手机 | 显示全部楼层
小丑的是蜥蜴人的meta吧,虽然我觉得他现在更像是一直炒股价
发表于 2025-3-2 01:07 | 显示全部楼层
a010301208 发表于 2025-3-1 22:11
算力需求无上限,别只看眼前,不过英伟达垄断很快就无了。

未来人人都要有机器人,工厂,军队更是大量需要 ...

算力无上限这点已经被G/PT4.5官宣打破了,成本提高了100倍,成绩只提高了4.5%,唯一亮点是“情商变高了”
G/PT4.5发布之后老黄股价一泻千里
发表于 2025-3-2 01:10 | 显示全部楼层
zlcrxp 发表于 2025-3-1 22:29
最大的利空是 老黄和openai的AI逻辑出现了瑕疵,他们之前经常说的就是2套理论,(1)力大出奇迹(奥特曼: ...

长远来看我们都死了
现在美股七巨头的股价基本都靠“AGI五年内到来”支撑,算力越强越有可能抢到AGI门票,但是事实嘛,你看G/PT4.5的崩溃性表现就知道了
LLM已经摸到天花板了,深挖效率卖api是支撑不了几万亿股价的
发表于 2025-3-2 01:36 | 显示全部楼层
yangzi123aaa20 发表于 2025-3-2 01:07
算力无上限这点已经被G/PT4.5官宣打破了,成本提高了100倍,成绩只提高了4.5%,唯一亮点是“情商变高了” ...

黄世仁黄了不代表算力就够了,只不过别人也有机会了

算力不是只有训练才需要,你的这个前提是未来所有人都用API,每天家里的机器人把你的所有隐私密码资料一举一动全部和服务器交互,甚至记录你一天几次多人运动,你觉得如何

如果你觉得不行,那么全人类至少需要几十亿块最先进的芯片,以台积电的产能,50年都造不完,甚至还需要考虑更新换代
发表于 2025-3-2 01:41 来自手机 | 显示全部楼层
这帖应该扔水区
发表于 2025-3-2 01:47 | 显示全部楼层
前提是已经所有人都有AI需求,这个前提下的延伸是合理的
但现况是就连企业都还没普及开来
我也认为企业普遍运用AI的未来很近很近了
但这过程中的几个月、一年、两三年,怎么发展还是模糊的
发表于 2025-3-2 01:49 | 显示全部楼层
a010301208 发表于 2025-3-2 01:36
黄世仁黄了不代表算力就够了,只不过别人也有机会了

算力不是只有训练才需要,你的这个前提是未来所有人 ...

个人用的话需要的是大显存,API现在平均每用户也就20TK/s,这个速度用AMD那个新集显就能达成
发表于 2025-3-2 01:58 | 显示全部楼层
yangzi123aaa20 发表于 2025-3-2 01:49
个人用的话需要的是大显存,API现在平均每用户也就20TK/s,这个速度用AMD那个新集显就能达成 ...

所以说英伟达未来垄断很难了,不过要达到AICG现在这些都远远不够,你也不想机器人帮你做饭的时候因为延迟操作失误把家烧了吧
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-26 21:49 , Processed in 0.012947 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表