raiya 发表于 2023-6-22 03:49
AMD想要AI向自己这边倾斜,很简单,去把非专业卡的显存加到48G,价格按照4090就行,立刻就都会去研究A卡炼 ...
Neo_Granzon 发表于 2023-6-22 04:30
不用这么麻烦,直接把79xt降价到3000比你那个好使。
beasy 发表于 2023-6-22 06:47
非常不看好。老黄长期投入得到的cuda相当于一套指令集,软件生态的壁垒已经非常高了 ...
liprais 发表于 2023-6-22 08:27
用啥不好你非要用torch directml
含印量十足
rocm 5.5咋不用
YsHaNg 发表于 2023-6-22 05:48
notebook不传git server放网盘
Skysky007 发表于 2023-6-22 08:53
不过a卡确实不适合ai,打游戏是不错,我用6900XT跑topaz只有4080的5分之一速度,明显不对应实际2卡的级别差 ...
我爱我家2022 发表于 2023-6-22 09:38
4080 1080 1X能跑多少?看论坛和4070TI一样 不过4080那套U比较老了
Neo_Granzon 发表于 2023-6-22 04:30
不用这么麻烦,直接把79xt降价到3000比你那个好使。
毛茸茸 发表于 2023-6-22 12:03
配置环境劝退不少人,xtx价格比4080又没便宜多少,个人还好,公司行为出问题屎盆子全是amd的,老板直接两个 ...
Skysky007 发表于 2023-6-22 11:14
34 33 11 40
goodrain 发表于 2023-6-22 21:25
xtx价格比4080又没便宜多少?多少算多?多少算少?
goodrain 发表于 2023-6-22 21:25
xtx价格比4080又没便宜多少?多少算多?多少算少?
nlnjnj 发表于 2023-6-22 22:14
ROCM 似乎也就pytorch 2.0 以上支持会好些
只能说AMD还有很多路要走,关机现在游戏和专业卡AMD架构上也割裂 ...
goodrain 发表于 2023-6-22 21:25
xtx价格比4080又没便宜多少?多少算多?多少算少?
厌夜 发表于 2023-6-22 12:20
一个核心将近2000块,卖你3000他还赚啥?显存便宜多了。
raiya 发表于 2023-6-22 03:49
AMD想要AI向自己这边倾斜,很简单,去把非专业卡的显存加到48G,价格按照4090就行,立刻就都会去研究A卡炼 ...
fairness 发表于 2023-6-22 23:06
为什么割裂不是好事情呢? 术业有专攻,不同类型的卡用不同的架构,做不同的事情。
我感觉老黄也在这么 ...
fairness 发表于 2023-6-22 23:06
为什么割裂不是好事情呢? 术业有专攻,不同类型的卡用不同的架构,做不同的事情。
我感觉老黄也在这么 ...
nlnjnj 发表于 2023-6-25 09:08
初期不利于推广,老黄卡虽然分割,但是CUDA那套却是通用的
如果AMD只有专业卡能打,那么适配ROCM的开发 ...
Neo_Granzon 发表于 2023-6-22 04:30
不用这么麻烦,直接把79xt降价到3000比你那个好使。
chenwen834 发表于 2024-6-23 20:50
AMD就应该让APU也能用ROCM,虽然只是玩具
但可以在学生群体里广泛推广
JackyQ2021 发表于 2024-6-23 21:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件 ...
JackyQ2021 发表于 2024-6-24 10:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件 ...
平安是福 发表于 2024-6-24 11:32
微软采购的不是mi300x吗,又进了b200的订单吗
Leciel 发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。
7900xtx在文生图领域rocm就比4070快个10% ...
fluttershy 发表于 2024-6-24 10:39
ZLUDA都比DirectML强
Leciel 发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。
7900xtx在文生图领域rocm就比4070快个10% ...
yangzi123aaa20 发表于 2023-6-22 04:53
跑int8推理的话79xtx确实就4090的十分之一算力吧,感觉没啥问题
JackyQ2021 发表于 2024-6-24 11:38
老黄新卡发布会上不是展示了自家的机柜吗?新卡模块都是直接插在自家的机柜里,
老黄要求新卡用户必须用 ...
Neo_Granzon 发表于 2024-6-24 13:04
zluda甚至比农企亲儿子ROCM都强,DirectML这种流浪汉是没前途的。
wjxiz 发表于 2024-6-24 10:02
难呀,老师cuda 的 PPT都写了10年了,又要学新AMD的API了
JackyQ2021 发表于 2024-6-24 11:38
老黄新卡发布会上不是展示了自家的机柜吗?新卡模块都是直接插在自家的机柜里,
老黄要求新卡用户必须用 ...
fairness 发表于 2024-6-25 18:28
什么机柜机柜的? 这东西有啥技术含量? 为啥还不是业界标准的呢?
是不是微软家的机柜,是他自己定 ...
JackyQ2021 发表于 2024-6-25 18:36
哦 你应该是没看老黄的直播,我是当晚看了直播,老黄的确展示了专用机柜(或者叫机架),
可以直接插入新 ...
fluttershy 发表于 2024-6-24 15:10
所以之前要封杀 WIN下面效率比linux ROCM还强
欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) | Powered by Discuz! X3.5 |