找回密码
 加入我们
搜索
      
查看: 5226|回复: 59

[显卡] 传蚂蚁集团使用国产芯片训练AI取得突破:可媲美英伟达H800芯片

[复制链接]
发表于 2025-3-24 15:13 | 显示全部楼层 |阅读模式
快科技3月24日消息,近日,据媒体报道,有知情人士透露,蚂蚁集团正使用中国制造的半导体来开发AI模型训练技术,这将使成本降低20%。

知情人士称,蚂蚁集团使用了包括来自阿里巴巴和华为的芯片,采用所谓的“专家混合机器学习”方法来训练模型,测试结果取得了与采用英伟达H800等芯片训练相似的结果。

据了解,虽然蚂蚁集团仍在使用英伟达芯片进行AI开发,但其最新模型已主要依赖包括超威半导体(AMD)及中国国产芯片的替代方案。

据蚂蚁集团本月发布的研究论文显示,其部分模型在某些基准测试中超越了Meta,但该数据尚未经过独立验证。

这表明,蚂蚁集团正加速AI技术本土化,以降低成本并减少对美国高端芯片的依赖。

据公开资料显示,”英伟达H800”是英伟达研发的芯片,专为高性能计算和人工智能训练设计的高端GPU芯片,广泛应用于数据中心和AI模型训练场景。

在2023年7月30日时,英伟达特供国内的A800和H800芯片已经从原来的12万人民币左右,涨至了25万甚至30万,甚至有高达50万一片。

至2025年,H800芯片单卡价格约为6万元。

与此同时,在2023年9月,H800服务器价格约210万元/台,后在同年10月,因限售政策涨至350万元/台。

至2025年市场数据显示,H800整机价格稳定在230万元左右。
 楼主| 发表于 2025-3-24 15:14 | 显示全部楼层
如果这个消息属实,以后国内很多用户用国产gpu替代的话,美国封锁5090有个屌意思了。
发表于 2025-3-24 15:22 | 显示全部楼层
有没有可能,h800用“专家混合机器学习”方法来训练模型比这个自研芯片效率更高嘞。
新闻信息太有限了。没办法搞清楚具体情况。
发表于 2025-3-24 15:23 | 显示全部楼层
dikuf001 发表于 2025-3-24 15:14
如果这个消息属实,以后国内很多用户用国产gpu替代的话,美国封锁5090有个屌意思了。 ...

隐藏了工时的成本看着笑笑就完了。

阿里有个芯片就能造轮子,小公司教研室拿什么搞,用户都不一定是学cs的。

光算硬件性价比mi300x早赢麻了。

发表于 2025-3-24 15:26 | 显示全部楼层
专家混合机器学习————人工来辅助判断呗
 楼主| 发表于 2025-3-24 15:27 | 显示全部楼层
kti1234 发表于 2025-3-24 15:22
有没有可能,h800用“专家混合机器学习”方法来训练模型比这个自研芯片效率更高嘞。
新闻信息太有限了。没 ...


这就是需要软硬件一起结合,在算法底层突破才可能的,像这种美国对中国封锁芯片的话,皮衣黄怎么知道阿里巴巴和华为是怎么配合的?阿里肯定根据华为的芯片单独设计优化算法。
 楼主| 发表于 2025-3-24 15:31 | 显示全部楼层
本帖最后由 dikuf001 于 2025-3-24 15:36 编辑
iamdefer 发表于 2025-3-24 15:23
隐藏了工时的成本看着笑笑就完了。

阿里有个芯片就能造轮子,小公司教研室拿什么搞,用户都不一定是学cs ...


要证明这条路径行得通的话,那么大堆国内的公司就会优化它,这有什么好担心的?就像有了deepseek以后基本上没有人担心中国的通用人工智能会远远落后美国了。相反,现在全世界的ai模型都挤在一个天花板上,打个比方就像一堆气球挤在天花板上突破不了openai也是这样。 Chat**5为什么要免费?就是因为它的性能和开源的模型差不多,你要再收费的话,没人愿意用你的了。
发表于 2025-3-24 15:34 | 显示全部楼层
千问的QwQ还是挺厉害的
发表于 2025-3-24 15:34 | 显示全部楼层
蚂蚁是当初卖asic 矿机的吧?这种预制菜,还是持保留意见。

他曾经教导过我们:不要听风就是雨

虽然说菊花厂的升腾蛮强,但需要按厂商给的指导一步步来部署,还是有些技术门槛的。
 楼主| 发表于 2025-3-24 15:35 | 显示全部楼层
tasagapro 发表于 2025-3-24 15:34
千问的QwQ还是挺厉害的


是啊,他基本上和美国佬吹嘘的顶级模型性能上是一样的,但人家价格低呀,你怎么玩?
 楼主| 发表于 2025-3-24 15:36 | 显示全部楼层
KimmyGLM 发表于 2025-3-24 15:34
蚂蚁是当初卖asic 矿机的吧?这种预制菜,还是持保留意见。

他曾经教导过我们:不要听风就是雨

此蚂蚁应该不是彼蚂蚁。
发表于 2025-3-24 15:37 | 显示全部楼层
dikuf001 发表于 2025-3-24 15:36
此蚂蚁应该不是彼蚂蚁。

如果只靠堆硬件就能实现超越,AMD INTEL 能给堆出花儿来。
发表于 2025-3-24 15:53 | 显示全部楼层
是不是真的看显卡市场价格就行,别的都当自嗨
发表于 2025-3-24 16:07 | 显示全部楼层
“专家混合机器学习”估计是部分给定标准答案.
发表于 2025-3-24 16:20 | 显示全部楼层
现在最tmd难的是,集成方案只有昇腾的Atlas 800I A2能用。

你们倒是拿东西出来卖啊
发表于 2025-3-24 16:24 | 显示全部楼层
本帖最后由 KimmyGLM 于 2025-3-24 16:28 编辑
panzerlied 发表于 2025-3-24 16:20
现在最tmd难的是,集成方案只有昇腾的Atlas 800I A2能用。

你们倒是拿东西出来卖啊 ...


买单个的910b npu呗,这玩意现在慢慢被主流框架兼容了。

集成方案也不是非得绑死买菊花厂的sulution。

再有就是atlas 800i / 800t, 市场经济示范区一搜一大堆。

800t 报价140w左右,800i 报价60-70w

PS. 沐曦,摩尔线程,这些都会被纳入主流框架兼容
发表于 2025-3-24 16:25 | 显示全部楼层
看看那家厂子能把个人家用AI服务器先搞出来。现在32B的模型似乎有一定可用性了。
发表于 2025-3-24 16:32 来自手机 | 显示全部楼层
KimmyGLM 发表于 2025-3-24 16:24
买单个的910b npu呗,这玩意现在慢慢被主流框架兼容了。

集成方案也不是非得绑死买菊花厂的sulution。

史密斯专员看不上太便宜的啊
发表于 2025-3-24 16:32 | 显示全部楼层
5090又有借口涨价了
 楼主| 发表于 2025-3-24 16:38 | 显示全部楼层
本帖最后由 dikuf001 于 2025-3-24 16:40 编辑
KimmyGLM 发表于 2025-3-24 15:37
如果只靠堆硬件就能实现超越,AMD INTEL 能给堆出花儿来。


中国的ai工程师最擅长算法,其实英伟达在中国大陆有4000多名工程师,50系显卡里面的很多技术也有中国大陆工程师的贡献。可不单单是优化黑悟空虚幻五引擎的光线追踪。再说了,全球一半的ai工程师是华人。
 楼主| 发表于 2025-3-24 16:42 | 显示全部楼层
本帖最后由 dikuf001 于 2025-3-24 16:43 编辑
PolyMorph 发表于 2025-3-24 16:32
5090又有借口涨价了


如果中国的ai在效率这方面再进一步突破,那美国迟早觉得封锁5090这种没有任何意义,还得罪了老黄。期待 deepseek R2
 楼主| 发表于 2025-3-24 16:46 | 显示全部楼层
panzerlied 发表于 2025-3-24 16:32
史密斯专员看不上太便宜的啊

这就瞎扯了,中国的政务部门现在都在买那个DS一体机,这些部门就算给你h800,你也不敢买啊。
发表于 2025-3-24 16:49 | 显示全部楼层
kti1234 发表于 2025-3-24 15:22
有没有可能,h800用“专家混合机器学习”方法来训练模型比这个自研芯片效率更高嘞。
新闻信息太有限了。没 ...

不重要
只要能让韭菜high起来就行
你看这帖子里不就有high起来的了
发表于 2025-3-24 16:55 来自手机 | 显示全部楼层
dikuf001 发表于 2025-3-24 16:46
这就瞎扯了,中国的政务部门现在都在买那个DS一体机,这些部门就算给你h800,你也不敢买啊。 ...

我的意思是纯国产方案没得选,不是说要买H800,
 楼主| 发表于 2025-3-24 16:58 | 显示全部楼层
manwomans 发表于 2025-3-24 16:49
不重要
只要能让韭菜high起来就行
你看这帖子里不就有high起来的了

不过你说这话我也觉得很正常,清华大学的教授前几个月还在说中国的人工智能远远落后于美国,他这种层次的人对中国的科技这个认知,何况你呢。。。
发表于 2025-3-24 17:07 | 显示全部楼层
这段文字稿看着像是ai写的
发表于 2025-3-24 17:19 来自手机 | 显示全部楼层
吃瓜,贸易战牢美是防守。动了西方高端制造业的蛋糕一直生产袜子裤头养白人低层废物,谁制裁你。
发表于 2025-3-24 17:34 | 显示全部楼层
混合专家学习说的那么高大上不就是moe。。。这些门户网站噱头是玩的明白的。

qwq很好,我现在基本用它代替其他开源模型了。4090可以跑,mac也跑的很快。闭源的冲了chat** pro,200刀一个月,qwq解决不了的用一用。

qwq比deepseek好的地方是deepseek干啥都要给你先reasoning一段,消耗大量token,qwq会根据问题情况直接作答。
发表于 2025-3-24 17:36 | 显示全部楼层
很早前用过华为的卡,说实话我也为国产卡适配做过贡献了。
发表于 2025-3-24 17:40 | 显示全部楼层
KimmyGLM 发表于 2025-3-24 15:34
蚂蚁是当初卖asic 矿机的吧?这种预制菜,还是持保留意见。

他曾经教导过我们:不要听风就是雨

是阿里,不是挖矿的蚂蚁
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-28 00:01 , Processed in 0.616367 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表