Neo_Granzon 发表于 2023-6-23 02:50

goodrain 发表于 2023-6-22 21:25
xtx价格比4080又没便宜多少?多少算多?多少算少?

便宜3dB以内都算少,便宜6dB以上算多,便宜10dB算交个朋友。

Neo_Granzon 发表于 2023-6-23 02:52

厌夜 发表于 2023-6-22 12:20
一个核心将近2000块,卖你3000他还赚啥?显存便宜多了。

所以你知道农企显卡业务现在有多尴尬了,性能瘸腿,还没有降价空间。

ZBKX 发表于 2023-6-23 07:54

游戏卡就应该做好只打游戏的觉悟。这些事情交给Instinct吧。(虽然也是被4090暴打)

pppig236 发表于 2023-6-25 02:17

本帖最后由 pppig236 于 2023-6-24 13:25 编辑

6800xt 256 32.1s 服了
512 4m 8s。。。

BetaHT 发表于 2023-6-25 06:01

raiya 发表于 2023-6-22 03:49
AMD想要AI向自己这边倾斜,很简单,去把非专业卡的显存加到48G,价格按照4090就行,立刻就都会去研究A卡炼 ...

对,其实大显存的成本没有那么贵。
amd不用这个策略很难说不是和老黄商量好了

nlnjnj 发表于 2023-6-25 09:08

fairness 发表于 2023-6-22 23:06
为什么割裂不是好事情呢?术业有专攻,不同类型的卡用不同的架构,做不同的事情。
我感觉老黄也在这么 ...

初期不利于推广,老黄卡虽然分割,但是CUDA那套却是通用的

如果AMD只有专业卡能打,那么适配ROCM的开发者就更少了

ltpterry 发表于 2023-7-3 18:50


我不用lstm,但基本上复现出来是没什么区别的

统一Wall time吧:
dim=128: 10.7s
dim=256:   15s
dim=512: 30.8s
dim加到850的时候RuntimeError:miopenStatusBadParm了,虽然看着VRAM只用了16000MB出头,还是上不去
等我的主板返修回来再用雷7跑一次

Haha303 发表于 2023-7-4 03:14

pppig236 发表于 2024-6-24 09:14

本帖最后由 pppig236 于 2024-6-23 20:15 编辑

来挖坟,捡的辣鸡盖板3090跑默认的第一项只要5s
对比68xt rocm 40s。。。


68xt

netjunegg 发表于 2024-6-24 09:49

fairness 发表于 2023-6-22 23:06
为什么割裂不是好事情呢?术业有专攻,不同类型的卡用不同的架构,做不同的事情。
我感觉老黄也在这么 ...

NV的cuda不管高高中低档卡配的几乎都有,对于普及推广非常有利。cuda早期没人用的时候纯粹是增加硬件成本,但是人家就是不惜代价,眼光比较长远,格局较大

chenwen834 发表于 2024-6-24 09:50

nlnjnj 发表于 2023-6-25 09:08
初期不利于推广,老黄卡虽然分割,但是CUDA那套却是通用的

如果AMD只有专业卡能打,那么适配ROCM的开发 ...

AMD就应该让APU也能用ROCM,虽然只是玩具
但可以在学生群体里广泛推广

wjxiz 发表于 2024-6-24 09:53

wjxiz 发表于 2024-6-24 10:02

路西法大大 发表于 2024-6-24 10:05

本帖最后由 路西法大大 于 2024-6-24 10:09 编辑

Neo_Granzon 发表于 2023-6-22 04:30
不用这么麻烦,直接把79xt降价到3000比你那个好使。

大显存专业卡当游戏卡便宜卖是少赚点,游戏卡卖跳楼价是要亏钱的

Leciel 发表于 2024-6-24 10:26

4090没有,只有4070。股票预测没有,stable diffusion和ollama。

7900xtx在文生图领域rocm就比4070快个10%。兼容性不错。
在使用zluda的情况下windows可以取得比Linux rocm更好的结果,主要是loading time更短。兼容性差一些。
周末测了一下wsl2 rocm 6.1.3,兼容性问题很多,勉强可以跑起来,速度也不如zluda。不过进入wsl 2的大门还是给我很多惊喜,微软做的不错。

ollama没对比,主要是7900xtx足够快,8b参数以下基本上没什么等待时间。

pppig236 发表于 2024-6-24 10:30

chenwen834 发表于 2024-6-23 20:50
AMD就应该让APU也能用ROCM,虽然只是玩具
但可以在学生群体里广泛推广

apu新架构的貌似真能用

JackyQ2021 发表于 2024-6-24 10:37

老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件,大公司有钱有自己的专业团队。老黄牛皮哄哄的说新AI显卡必须装在他的机柜里,微软不鸟他,说不可以装在自己采购的机柜里就放弃老黄的新Ai卡,老黄还不是乖乖的说微软随意,想怎么装就怎么装

fluttershy 发表于 2024-6-24 10:39

ZLUDA都比DirectML强

pppig236 发表于 2024-6-24 10:44

JackyQ2021 发表于 2024-6-23 21:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件 ...

确实,别的不说,学校实验室里面就是两块4090
但是学校的超算都是dddd[偷笑]


(我觉得老黄主要客户是学校 :(

liu3yang3715 发表于 2024-6-24 10:58

Rocm和CUDA的显存利用率居然还不一样,我以为一样的数据,显存占用会是一样的。

平安是福 发表于 2024-6-24 11:32

JackyQ2021 发表于 2024-6-24 10:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件 ...

微软采购的不是mi300x吗,又进了b200的订单吗[晕倒]

JackyQ2021 发表于 2024-6-24 11:38

本帖最后由 JackyQ2021 于 2024-6-24 11:39 编辑

平安是福 发表于 2024-6-24 11:32
微软采购的不是mi300x吗,又进了b200的订单吗

老黄新卡发布会上不是展示了自家的机柜吗?新卡模块都是直接插在自家的机柜里,
老黄要求新卡用户必须用老黄的机柜安装新卡模块,结果微软不鸟老黄。
老黄机柜的目的是绑定用户,以后升级其他厂商的AI卡会很麻烦,一般机房机柜都是
统一标准的,老黄的不是标准的

Neo_Granzon 发表于 2024-6-24 13:02

Leciel 发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。

7900xtx在文生图领域rocm就比4070快个10% ...

农企自己的卡,跑农企亲儿子ROCM,居然打不过intc不要的孤儿zluda,这真的令人迷惑。

Neo_Granzon 发表于 2024-6-24 13:04

fluttershy 发表于 2024-6-24 10:39
ZLUDA都比DirectML强

zluda甚至比农企亲儿子ROCM都强,DirectML这种流浪汉是没前途的。

大头吃小头 发表于 2024-6-24 13:12

Leciel 发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。

7900xtx在文生图领域rocm就比4070快个10% ...

wsl2支持a卡了?我前面折腾wsl的时候在wsl里找不到a卡也找不到a卡驱动啊,上网一搜发现就2020年有个驱动标明支持wsl

寒蝉鸣泣 发表于 2024-6-24 13:35

来迟了 页面不存在了

装陈醋的酱油瓶 发表于 2024-6-24 14:22

yangzi123aaa20 发表于 2023-6-22 04:53
跑int8推理的话79xtx确实就4090的十分之一算力吧,感觉没啥问题

a卡没有类似tensor 的单元吗?

cloudybeyond 发表于 2024-6-24 14:25

请问这个具体怎么使用,能够用于A股么?

我有兴趣研究下

Flanker 发表于 2024-6-24 14:26

JackyQ2021 发表于 2024-6-24 11:38
老黄新卡发布会上不是展示了自家的机柜吗?新卡模块都是直接插在自家的机柜里,
老黄要求新卡用户必须用 ...

哪来的沙雕传闻,是所有服务器厂商都不做n卡方案了吗

fluttershy 发表于 2024-6-24 15:10

Neo_Granzon 发表于 2024-6-24 13:04
zluda甚至比农企亲儿子ROCM都强,DirectML这种流浪汉是没前途的。

所以之前要封杀 WIN下面效率比linux ROCM还强
页: 1 [2] 3
查看完整版本: 用7900XTX做了一点点AI测试,感觉AMD的ROCM目前还是不太行