找回密码
 加入我们
搜索
      
楼主: cutezzk

[显卡] 用7900XTX做了一点点AI测试,感觉AMD的ROCM目前还是不太行

[复制链接]
发表于 2023-6-23 02:50 | 显示全部楼层
goodrain 发表于 2023-6-22 21:25
xtx价格比4080又没便宜多少?多少算多?多少算少?

便宜3dB以内都算少,便宜6dB以上算多,便宜10dB算交个朋友。
发表于 2023-6-23 02:52 | 显示全部楼层
厌夜 发表于 2023-6-22 12:20
一个核心将近2000块,卖你3000他还赚啥?显存便宜多了。

所以你知道农企显卡业务现在有多尴尬了,性能瘸腿,还没有降价空间。
发表于 2023-6-23 07:54 | 显示全部楼层
游戏卡就应该做好只打游戏的觉悟。这些事情交给Instinct吧。(虽然也是被4090暴打)
发表于 2023-6-25 02:17 | 显示全部楼层
本帖最后由 pppig236 于 2023-6-24 13:25 编辑

6800xt 256 32.1s 服了
512 4m 8s。。。
发表于 2023-6-25 06:01 来自手机 | 显示全部楼层
raiya 发表于 2023-6-22 03:49
AMD想要AI向自己这边倾斜,很简单,去把非专业卡的显存加到48G,价格按照4090就行,立刻就都会去研究A卡炼 ...

对,其实大显存的成本没有那么贵。
amd不用这个策略很难说不是和老黄商量好了
发表于 2023-6-25 09:08 | 显示全部楼层
fairness 发表于 2023-6-22 23:06
为什么割裂不是好事情呢?  术业有专攻,不同类型的卡用不同的架构,做不同的事情。
我感觉老黄也在这么 ...

初期不利于推广,老黄卡虽然分割,但是CUDA那套却是通用的

如果AMD只有专业卡能打,那么适配ROCM的开发者就更少了
发表于 2023-7-3 18:50 | 显示全部楼层
hidden_dim=128.png
我不用lstm,但基本上复现出来是没什么区别的

统一Wall time吧:
dim=128: 10.7s
dim=256:   15s
dim=512: 30.8s
dim加到850的时候RuntimeError:miopenStatusBadParm了,虽然看着VRAM只用了16000MB出头,还是上不去
等我的主板返修回来再用雷7跑一次

发表于 2023-7-4 03:14 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-6-24 09:14 | 显示全部楼层
本帖最后由 pppig236 于 2024-6-23 20:15 编辑

来挖坟,捡的辣鸡盖板3090跑默认的第一项只要5s
对比68xt rocm 40s。。。
Screenshot 2024-06-23 205731.png

68xt
Screenshot 2024-06-23 205740.png
发表于 2024-6-24 09:49 | 显示全部楼层
fairness 发表于 2023-6-22 23:06
为什么割裂不是好事情呢?  术业有专攻,不同类型的卡用不同的架构,做不同的事情。
我感觉老黄也在这么 ...

NV的cuda不管高高中低档卡配的几乎都有,对于普及推广非常有利。cuda早期没人用的时候纯粹是增加硬件成本,但是人家就是不惜代价,眼光比较长远,格局较大
发表于 2024-6-24 09:50 | 显示全部楼层
nlnjnj 发表于 2023-6-25 09:08
初期不利于推广,老黄卡虽然分割,但是CUDA那套却是通用的

如果AMD只有专业卡能打,那么适配ROCM的开发 ...

AMD就应该让APU也能用ROCM,虽然只是玩具
但可以在学生群体里广泛推广
发表于 2024-6-24 09:53 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-6-24 10:02 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-6-24 10:05 | 显示全部楼层
本帖最后由 路西法大大 于 2024-6-24 10:09 编辑
Neo_Granzon 发表于 2023-6-22 04:30
不用这么麻烦,直接把79xt降价到3000比你那个好使。


大显存专业卡当游戏卡便宜卖是少赚点,游戏卡卖跳楼价是要亏钱的
发表于 2024-6-24 10:26 | 显示全部楼层
4090没有,只有4070。股票预测没有,stable diffusion和ollama。

7900xtx在文生图领域rocm就比4070快个10%。兼容性不错。
在使用zluda的情况下windows可以取得比Linux rocm更好的结果,主要是loading time更短。兼容性差一些。
周末测了一下wsl2 rocm 6.1.3,兼容性问题很多,勉强可以跑起来,速度也不如zluda。不过进入wsl 2的大门还是给我很多惊喜,微软做的不错。

ollama没对比,主要是7900xtx足够快,8b参数以下基本上没什么等待时间。
发表于 2024-6-24 10:30 | 显示全部楼层
chenwen834 发表于 2024-6-23 20:50
AMD就应该让APU也能用ROCM,虽然只是玩具
但可以在学生群体里广泛推广

apu新架构的貌似真能用
发表于 2024-6-24 10:37 | 显示全部楼层
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件,大公司有钱有自己的专业团队。老黄牛皮哄哄的说新AI显卡必须装在他的机柜里,微软不鸟他,说不可以装在自己采购的机柜里就放弃老黄的新Ai卡,老黄还不是乖乖的说微软随意,想怎么装就怎么装
发表于 2024-6-24 10:39 | 显示全部楼层
ZLUDA都比DirectML强
发表于 2024-6-24 10:44 | 显示全部楼层
JackyQ2021 发表于 2024-6-23 21:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件 ...

确实,别的不说,学校实验室里面就是两块4090
但是学校的超算都是dddd
Screenshot 2024-06-23 224146.png

(我觉得老黄主要客户是学校 :(
发表于 2024-6-24 10:58 | 显示全部楼层
Rocm和CUDA的显存利用率居然还不一样,我以为一样的数据,显存占用会是一样的。
发表于 2024-6-24 11:32 | 显示全部楼层
JackyQ2021 发表于 2024-6-24 10:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件 ...

微软采购的不是mi300x吗,又进了b200的订单吗
发表于 2024-6-24 11:38 | 显示全部楼层
本帖最后由 JackyQ2021 于 2024-6-24 11:39 编辑
平安是福 发表于 2024-6-24 11:32
微软采购的不是mi300x吗,又进了b200的订单吗


老黄新卡发布会上不是展示了自家的机柜吗?新卡模块都是直接插在自家的机柜里,
老黄要求新卡用户必须用老黄的机柜安装新卡模块,结果微软不鸟老黄。
老黄机柜的目的是绑定用户,以后升级其他厂商的AI卡会很麻烦,一般机房机柜都是
统一标准的,老黄的不是标准的
发表于 2024-6-24 13:02 | 显示全部楼层
Leciel 发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。

7900xtx在文生图领域rocm就比4070快个10% ...

农企自己的卡,跑农企亲儿子ROCM,居然打不过intc不要的孤儿zluda,这真的令人迷惑。
发表于 2024-6-24 13:04 | 显示全部楼层

zluda甚至比农企亲儿子ROCM都强,DirectML这种流浪汉是没前途的。
发表于 2024-6-24 13:12 来自手机 | 显示全部楼层
Leciel 发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。

7900xtx在文生图领域rocm就比4070快个10% ...

wsl2支持a卡了?我前面折腾wsl的时候在wsl里找不到a卡也找不到a卡驱动啊,上网一搜发现就2020年有个驱动标明支持wsl
发表于 2024-6-24 13:35 | 显示全部楼层
来迟了 页面不存在了
发表于 2024-6-24 14:22 | 显示全部楼层
yangzi123aaa20 发表于 2023-6-22 04:53
跑int8推理的话79xtx确实就4090的十分之一算力吧,感觉没啥问题

a卡没有类似tensor 的单元吗?
发表于 2024-6-24 14:25 | 显示全部楼层
请问这个具体怎么使用,能够用于A股么?

我有兴趣研究下
发表于 2024-6-24 14:26 | 显示全部楼层
JackyQ2021 发表于 2024-6-24 11:38
老黄新卡发布会上不是展示了自家的机柜吗?新卡模块都是直接插在自家的机柜里,
老黄要求新卡用户必须用 ...

哪来的沙雕传闻,是所有服务器厂商都不做n卡方案了吗

QQ截图20240624142548.jpg
发表于 2024-6-24 15:10 | 显示全部楼层
Neo_Granzon 发表于 2024-6-24 13:04
zluda甚至比农企亲儿子ROCM都强,DirectML这种流浪汉是没前途的。

所以之前要封杀 WIN下面效率比linux ROCM还强
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-28 17:49 , Processed in 0.013517 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表