用于模型训练,最好能插两张4090显卡的主板,兄弟们推荐一下!
本帖最后由 easyeiji 于 2023-6-8 13:36 编辑用于模型训练,最好能插两张4090显卡的主板,兄弟们推荐一下!CPU、电源和内存包括4090显卡大家推荐一下,主板要尽可能的小
注:有没有能改NVLink的4090https://pic.rmb.bdstatic.com/bjh/news/7308028a5c1987ec8db1ee6eaa4c2ace.jpeg
目前了解下来只有屏蔽牌的4090gaming还保留nvlink的设计 插两张4090占用6槽基本不用想,ATX怎么都得上了,不存在尽量小,电源1600W海韵有双16PIN,功率也够,想缩水的话,名人堂1300W也有双16PIN,见过有人带4090双公版也够用 你这要求只能改水了啊 X570 Pro ws + 4090涡轮卡*3,电源可以用2000w以上的
只不过噪音就....
[偷笑] ljy1414 发表于 2023-6-8 10:29
X570 Pro ws + 4090涡轮卡*3,电源可以用2000w以上的
只不过噪音就....
啊,没看到你要求体积小,那就只能双卡了 沐雨丶晨潇 发表于 2023-6-8 10:25
插两张4090占用6槽基本不用想,ATX怎么都得上了,不存在尽量小,电源1600W海韵有双16PIN,功率也够,想缩水 ...
能插两张4090的intel和AMD平台的主板,都推荐一下 本帖最后由 Xp47 于 2023-6-8 10:34 编辑
我现在是13900 + 4090 + b760 台达 mk1000,自己买的atx3那个电源模组线,128G, 不过,你要是不是自己compile的tf和pytorch,感觉13900就行,你要是经常编译c++ api,建议amd的那些全大核心吧。说实话,我现在deepmd(属于graph),quip(属于soap),ace(训练GPR或者tf,自己魔改的炒豆子),clip,transformer,就连之前的MC也都无法让4090保持p0,除了vasp(cuda和openacc两种),gaussian(openacc)这种确实4090搞不来,其他还行。
我的另一张卡,因为追风者的延长线还在等,竖着来了 你这需求有点矛盾,两张4090就不小了,还是安心工作站板吧 蓝宝石激流随便买 Xp47 发表于 2023-6-8 10:32
我现在是13900 + 4090 + b760 台达 mk1000,自己买的atx3那个电源模组线,128G, 不过,你要是不是自己comp ...
求可以改nv link的4090显卡 ljy1414 发表于 2023-6-8 10:29
X570 Pro ws + 4090涡轮卡*3,电源可以用2000w以上的
只不过噪音就....
第三根槽的速度如何 easyeiji 发表于 2023-6-8 10:42
求可以改nv link的4090显卡
40系没有nvlink了。上双卡最好找能拆分X8+X8的主板接延长线出来。直插双卡是不太现实了 deigo_block 发表于 2023-6-8 10:43
第三根槽的速度如何
https://www.asus.com/tw/motherboards-components/motherboards/workstation/pro-ws-x570-ace/
算是X570的平民妖版,可以4.0 X8 3槽,还带了一个U2接口https://cdn.jsdelivr.net/gh/master-of-forums/master-of-forums/public/images/patch.gif easyeiji 发表于 2023-6-8 10:42
求可以改nv link的4090显卡
还有这种操作?RTX6000 ADA都不支持nvlink吧 easyeiji 发表于 2023-6-8 10:42
求可以改nv link的4090显卡
啊,还有nvlink吗....我以为没了(据说某品牌可以,(不过没有nvlink 那就运行的时候按照numa domain来并行问题也不大 iimxsh8p 发表于 2023-6-8 10:45
还有这种操作?RTX6000 ADA都不支持nvlink吧
有的4090好像是还保留端子,可以接出NVLINK来 本帖最后由 Xp47 于 2023-6-8 10:52 编辑
我现在远程启动用的wol,用一台有ipmi的机器来做wol启动,我感觉你估计也不会放到办公室吧....放到机房还是得想一下,没有ipmi还是不方便,这种卡还不便宜 Xp47 发表于 2023-6-8 10:32
我现在是13900 + 4090 + b760 台达 mk1000,自己买的atx3那个电源模组线,128G, 不过,你要是不是自己comp ...
跑python 和编码类的 还是intel强一些吧 如果 make -j32 本帖最后由 Xp47 于 2023-6-8 11:06 编辑
21mm 发表于 2023-6-8 11:00
跑python 和编码类的 还是intel强一些吧 如果 make -j32
😂 都是泪,tf2.9.2 gcc8编译下面 13900 的e核心就是拖拉机.....而且,opt=mkl的话虽然intel取消了zen的bonus但是好像还是可以用的 DEBUG_CPUTYPE和CBWR这俩,依然很香。以后icc换成llvm之后那真的没啥依恋的了,肯定要转头openblas。(特别是c2py或者f2py。。。 好奇为啥不选NV的高端专业卡? 服务器主板呗 Xp47 发表于 2023-6-8 10:32
我现在是13900 + 4090 + b760 台达 mk1000,自己买的atx3那个电源模组线,128G, 不过,你要是不是自己comp ...
感觉有点弯[偷笑] 沙悟净@蓝领 发表于 2023-6-8 11:06
好奇为啥不选NV的高端专业卡?
因为4090 对于16p或者8p的比a100 40g快一些,如果是32以上也没慢多少,就先存不行,但是便宜,忍着呗...https://zhuanlan.zhihu.com/p/576015496?utm_id=0 cqn3887 发表于 2023-6-8 11:08
感觉有点弯
送的支架太短了用不了.....😂 Xp47 发表于 2023-6-8 11:12
因为4090 对于16p或者8p的比a100 40g快一些,如果是32以上也没慢多少,就先存不行,但是便宜,忍着呗...h ...
看应用了,4090好像显存没ECC,某些应用工作到一半显存出个错,重做就费时间了 沙悟净@蓝领 发表于 2023-6-8 11:18
看应用了,4090好像显存没ECC,某些应用工作到一半显存出个错,重做就费时间了 ...
虽然说都要ecc,但是考虑到每步opted了就backup起来,基本上ecc的用处不是太大,但容量和带宽还有双精度是痛点,机器学习还好,精度本来就不高小数点后数不到32位....有钱当然要h800这些,自己用的话4090算是cp高的选择了 其实主板无所谓,大不了PCI-E用延长线
关键是机箱的PCI-E槽位够多 Xp47 发表于 2023-6-8 11:05
😂 都是泪,tf2.9.2 gcc8编译下面 13900 的e核心就是拖拉机.....而且,opt=mkl的话虽然intel取消了zen的b ...
之前为了对比139k和7950x 特意在网上租了一台7950x 跑了下,性能不及139k 。能耗比确实amd 优势。139k 顶着100°擦边252w的功耗。 前两天咸鱼有人一万二卖4090涡轮来着,好像还不止一个,你要是赶上买俩很不错。