找回密码
 加入我们
搜索
      

英伟达发布DGX GH200超级计算机, Hopper-Next GPU将会在明年推出

查看数: 11543 | 评论数: 24 | 收藏 2
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2023-5-29 20:41

正文摘要:

英伟达宣布,推出新款DGX GH200超级计算机、MGX系统的核心组件、以及新的Spectrum-X以太网网络平台。这些新产品专为人工智能和超级计算集群而优化,以应付需要处理海量数据的人工智能任务。 此外,英伟达确认明 ...

回复

COFFFEEEE 发表于 2023-6-1 15:08
sync2 发表于 2023-5-30 07:42
你猜卖车是劳斯莱斯赚的多还是丰田赚的多?

短浅了。 计算卡的出货量是劳能比的? 随便一个数据中心就几万几十万颗。别问,我天天去。
jeff.kwan 发表于 2023-5-30 15:27
现场出现的老黄会不会是即时计算的全息影像
fairness 发表于 2023-5-30 14:23
邪恶的光B 发表于 2023-5-30 10:50
AMD吃下数据中心的CPU,NVIDIA吃下数据中心的GPU。

Grace也是很适合数据中心的CPU。
邪恶的光B 发表于 2023-5-30 12:37
怪叔叔 发表于 2023-5-30 11:35
还有一个微软也是给阿三带沟里了

阿三那些搞法,真的是业界毒瘤
怪叔叔 发表于 2023-5-30 11:35
邪恶的光B 发表于 2023-5-30 10:50
AMD吃下数据中心的CPU,NVIDIA吃下数据中心的GPU。

还有一个微软也是给阿三带沟里了
aibo 发表于 2023-5-30 10:54
这货要年底才能出货

但是下一季老黄已经吹大了营收,是提前接单了,还是下一季有另外的大单?
邪恶的光B 发表于 2023-5-30 10:50
AMD吃下数据中心的CPU,NVIDIA吃下数据中心的GPU。


Intel被阿三带沟里去了。
nvidiadriver 发表于 2023-5-30 10:38
老黄已然要登基了。
mj_majun 发表于 2023-5-30 08:15
sync2 发表于 2023-5-30 07:42
你猜卖车是劳斯莱斯赚的多还是丰田赚的多?

你猜我猜不猜?
sync2 发表于 2023-5-30 07:42
COFFFEEEE 发表于 2023-5-29 23:31
当然,游戏卡就是小把戏。一台DGX就几十万刀了,一台服务器就相当于卖几百张游戏卡。 ...

你猜卖车是劳斯莱斯赚的多还是丰田赚的多?
coconutgallo 发表于 2023-5-30 06:54
赫敏 发表于 2023-5-30 01:15
因为还有右边是cpu的144核版
https://youtu.be/It9D08W8Z7o

已经有上手视频了,老黄买mellanox真是高瞻远瞩
赫敏 发表于 2023-5-30 01:15
coconutgallo 发表于 2023-5-29 09:34
没太看懂这个设计
如果只是为了把256个H100连起来,为啥每个H100要单独配个CPU+576G内存1+1的模式不 ...


因为还有右边是cpu的144核版
coconutgallo 发表于 2023-5-30 00:02
我輩樹である 发表于 2023-5-29 22:59
系统总是有逻辑运算,io等,还要作为client提交数据。

我现在的任务基本都是验证一块GPU就能搞定,还没体会过多node的场景。CPU大部分时间都空着感觉有一点浪费
coconutgallo 发表于 2023-5-29 23:59
gtv 发表于 2023-5-29 22:50
因为单个显卡显存有限,无法导入大模型,比方 **-175B 模型占用显存约350GB+
至少需要4块 A100/H100 80GB ...

感谢科普我是按之前dgx一个CPU带几个GPU来理解,感觉这样1+1CPU可能有点浪费了
Illidan2004 发表于 2023-5-29 23:50
beowulf 发表于 2023-5-29 23:22
这是皮衣黄的野心。
现存的系统里,包括top500里面,主要的还是x86+hgx这样的机器。
皮衣黄已经有了显卡 ...

CXL现在还没太大动静
COFFFEEEE 发表于 2023-5-29 23:31
WUsic 发表于 2023-5-29 20:52
这才是老黄的主菜啊。。。

游戏显卡算啥呀。。。

当然,游戏卡就是小把戏。一台DGX就几十万刀了,一台服务器就相当于卖几百张游戏卡。
beowulf 发表于 2023-5-29 23:22
coconutgallo 发表于 2023-5-29 22:34
没太看懂这个设计
如果只是为了把256个H100连起来,为啥每个H100要单独配个CPU+576G内存1+1的模式不 ...

这是皮衣黄的野心。
现存的系统里,包括top500里面,主要的还是x86+hgx这样的机器。
皮衣黄已经有了显卡和网卡,他还想染指处理器这部分。

好处5楼列出来了,就是比hbm慢一些的内存,但是提供更大的容量。
存储这东西本来就是分层级分级别的,离运算部件越近,速度越快,容量越小。
现在那些4卡8卡机器,pci总线只有十几或者几十GB/s每秒,确实不够看。
intel/amd也不会把自家的处理器和nvidia的nvlink直接连一起。
所以老黄就自己干了,结果比intel和amd出的都早。

话说回来,一般的机器学习机器,很长一段时间内还会是x86+hgx的形式。
超算里面,只有瑞士的超算中心早先就明确使用grace+hopper的体系。
ericskinss 发表于 2023-5-29 23:09
皮衣现在确实是猛啊,游戏显卡那点市场跟这一块儿比,显然是小虾米了
我輩樹である 发表于 2023-5-29 23:03
看着真是流口水。
我輩樹である 发表于 2023-5-29 22:59
coconutgallo 发表于 2023-5-29 22:34
没太看懂这个设计
如果只是为了把256个H100连起来,为啥每个H100要单独配个CPU+576G内存1+1的模式不 ...

系统总是有逻辑运算,io等,还要作为client提交数据。
gtv 发表于 2023-5-29 22:50
coconutgallo 发表于 2023-5-29 22:34
没太看懂这个设计
如果只是为了把256个H100连起来,为啥每个H100要单独配个CPU+576G内存1+1的模式不 ...


因为单个显卡显存有限,无法导入大模型,比方 **-175B 模型占用显存约350GB+
至少需要4块 A100/H100 80GB 这样规格的显卡才能运行。

有了grace hopper 可以把整个子系统的memory扩大到500GB +
另外速度方面, cpu和gpu互联速度达到900GB,是PCIE5.0的7倍,CPU 访问512GB 内存的速度可以达到546GB/S,也是远超DDR5.
coconutgallo 发表于 2023-5-29 22:34
没太看懂这个设计
如果只是为了把256个H100连起来,为啥每个H100要单独配个CPU+576G内存1+1的模式不是为了做单独的节点或者系统吗,MI300也是这种神奇的搭配,感觉搭配CPU是想多挣钱?
deigo_block 发表于 2023-5-29 21:16
老黄就算不做游戏卡都能锦衣玉食了了
WUsic 发表于 2023-5-29 20:52
这才是老黄的主菜啊。。。

游戏显卡算啥呀。。。

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-5-19 06:27 , Processed in 0.014713 second(s), 10 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表