找回密码
 加入我们
搜索
      

英伟达推出H100 NVL 双GPU的AI加速器,针对大语言模型训练设计

查看数: 6773 | 评论数: 8 | 收藏 2
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2023-3-23 21:03

正文摘要:

英伟达宣布,针对大型语言模型训练(LLM)设计,推出全新的H100 NVL计算加速卡。其搭载了两个基于Hopper架构的H100芯片,顶部配备了三个NVLink连接器,在服务器里使用了两个相邻的PCIe全长插槽。 英伟达去年就推出 ...

回复

imluvian 发表于 2023-4-3 18:41
o尐懶魚〇 发表于 2023-3-29 15:38
双精度也割了,而且割废了

砍了10%多一点而已,不至于叫割废了。。
o尐懶魚〇 发表于 2023-3-29 15:38
beowulf 发表于 2023-3-24 16:10
跟a800类似,割了一部分nvlink而已。

双精度也割了,而且割废了
beowulf 发表于 2023-3-24 16:10

跟a800类似,割了一部分nvlink而已。
Laferrari 发表于 2023-3-24 14:22
beowulf 发表于 2023-3-24 10:02
据wccftech说有H800。

H800是H100阉割版
aibo 发表于 2023-3-24 10:20
然后显存硬生生割了2G留下94G,刀工是厉害的
beowulf 发表于 2023-3-24 10:02
邪恶的光B 发表于 2023-3-24 01:09
不让买的东西,就当他不存在了。

据wccftech说有H800。
vistacoming 发表于 2023-3-24 06:22
略高于H100 PCIe(350W)的两倍或以上,在700W至800W之间
这个略字用得有点
邪恶的光B 发表于 2023-3-24 01:09
不让买的东西,就当他不存在了。

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-6-20 13:09 , Processed in 0.080726 second(s), 10 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表