找回密码
 加入我们
搜索
      
查看: 5149|回复: 33

[显卡] 为什么有人装4张5090显卡

[复制链接]
发表于 2025-3-14 09:39 | 显示全部楼层 |阅读模式
没有nvlink,你没法把4张显卡连起来啊?
发表于 2025-3-14 09:41 | 显示全部楼层
跑AI不需要nv link
发表于 2025-3-14 09:44 来自手机 | 显示全部楼层
跑渲染也不需要nvlink
发表于 2025-3-14 09:47 | 显示全部楼层
当4个单卡用就是了。
 楼主| 发表于 2025-3-14 09:47 | 显示全部楼层
田牌改名部 发表于 2025-3-14 09:44
跑渲染也不需要nvlink

AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗?
发表于 2025-3-14 09:53 | 显示全部楼层
滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...

跑训练需要
发表于 2025-3-14 10:02 | 显示全部楼层
滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...


有用≠必须, 包括训练也不必须
nvlink谈不上护城河, 同等互联每家计算卡都有
发表于 2025-3-14 10:18 | 显示全部楼层
map reduce类型,或者多实例都能用上,把几块卡拼成一块卡才要nvlink
发表于 2025-3-14 10:29 来自手机 | 显示全部楼层
现在大多数情况都可以不用nvlink了,
发表于 2025-3-14 10:41 来自手机 | 显示全部楼层
老黄的护城河是CUDA,真要说互联技术,也不是柜内的nvlink,而是柜间的IB高速无损网络,当年收购迈络思真是一步好棋,现在其他大厂搞了个通信联盟来对付老黄
发表于 2025-3-14 10:45 来自手机 | 显示全部楼层
您有没有想过pcie是干什么用的?跑ai也用不着nvlink啊
发表于 2025-3-14 11:07 | 显示全部楼层
其实pcie5.0*16已经比3090那代的nvlink快了
发表于 2025-3-14 11:11 | 显示全部楼层
很多任务可以通过3d并行解决,并不是一直需要nvlink。当然nvlink的效率是最高的,但代价也是巨大的,就是一个简单的tradeoff。
发表于 2025-3-14 11:20 | 显示全部楼层
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了

有没有nvlink速度差异巨大,而且从40系开始全系不支持pcie p2p,速度更慢
发表于 2025-3-14 11:22 | 显示全部楼层
evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了

有没有nvlink速度差 ...

那为啥4090二手还要1w8
发表于 2025-3-14 11:27 | 显示全部楼层
PolyMorph 发表于 2025-3-14 11:22
那为啥4090二手还要1w8

因为显存容量翻倍

先解决能跑,再解决跑得快不快
发表于 2025-3-14 11:31 | 显示全部楼层
pcie switch
发表于 2025-3-14 11:40 | 显示全部楼层
滚滚 发表于 2025-3-14 09:47
AI也不需要,渲染也不需要,那nvlink用来做什么?nvlink和超高速不是nvidia的护城河之一吗? ...

游戏卡的nvlink一直没啥大用,DGX的nvlink和游戏卡的不是一回事,大规模通信和4卡也不是一回事,之前30和40是老黄特意阉割卡间通信的特性,pcie p2p特性全开加pcie5.0正常情况下完全够用了
发表于 2025-3-14 15:24 | 显示全部楼层
5090这么容易买的么
发表于 2025-3-14 17:31 | 显示全部楼层
evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了

有没有nvlink速度差 ...

用cuda sampe的p2p测试,20系就不能pcie P2P了。
发表于 2025-3-14 17:58 | 显示全部楼层
21PENNY 发表于 2025-3-14 17:31
用cuda sampe的p2p测试,20系就不能pcie P2P了。

同期专业卡的P2P功能则一直保留着
发表于 2025-3-14 18:00 | 显示全部楼层
装了8个4090的机器大把。
发表于 2025-3-15 23:29 | 显示全部楼层
40 系的 p2p 是不是可以有一个破解驱动?
发表于 2025-3-16 00:40 | 显示全部楼层
21PENNY 发表于 2025-3-14 17:31
用cuda sampe的p2p测试,20系就不能pcie P2P了。

20系可以用nvlink p2p啊, 不过是阉割版, 双卡也不够用, 当年对训练几乎没什么提升
发表于 2025-3-16 00:53 来自手机 | 显示全部楼层
evangelion_air 发表于 2025-3-14 11:20
这层楼充分说明多数人压根不懂大模型训练,多数人停留在单卡跑一个influence就结束了

有没有nvlink速度差 ...

influence还是inference?
发表于 2025-3-16 08:45 来自手机 | 显示全部楼层
mangomango 发表于 2025-3-15 16:53
influence还是inference?

嘿嘿就喜欢这种 嘿嘿嘿
发表于 2025-3-16 09:24 | 显示全部楼层
mangomango 发表于 2025-3-16 00:53
influence还是inference?

这种用法(unacceptable)可以接受的
发表于 2025-3-16 09:26 来自手机 | 显示全部楼层
每个热爱生活的玩家都应该买8张5090。
发表于 2025-3-16 09:32 | 显示全部楼层
跑AI用4x就行
发表于 2025-3-16 09:33 | 显示全部楼层
我也不懂。。。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-27 05:14 , Processed in 0.013765 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表