Neo_Granzon
发表于 2023-6-23 02:50
goodrain 发表于 2023-6-22 21:25
xtx价格比4080又没便宜多少?多少算多?多少算少?
便宜3dB以内都算少,便宜6dB以上算多,便宜10dB算交个朋友。
Neo_Granzon
发表于 2023-6-23 02:52
厌夜 发表于 2023-6-22 12:20
一个核心将近2000块,卖你3000他还赚啥?显存便宜多了。
所以你知道农企显卡业务现在有多尴尬了,性能瘸腿,还没有降价空间。
ZBKX
发表于 2023-6-23 07:54
游戏卡就应该做好只打游戏的觉悟。这些事情交给Instinct吧。(虽然也是被4090暴打)
pppig236
发表于 2023-6-25 02:17
本帖最后由 pppig236 于 2023-6-24 13:25 编辑
6800xt 256 32.1s 服了
512 4m 8s。。。
BetaHT
发表于 2023-6-25 06:01
raiya 发表于 2023-6-22 03:49
AMD想要AI向自己这边倾斜,很简单,去把非专业卡的显存加到48G,价格按照4090就行,立刻就都会去研究A卡炼 ...
对,其实大显存的成本没有那么贵。
amd不用这个策略很难说不是和老黄商量好了
nlnjnj
发表于 2023-6-25 09:08
fairness 发表于 2023-6-22 23:06
为什么割裂不是好事情呢?术业有专攻,不同类型的卡用不同的架构,做不同的事情。
我感觉老黄也在这么 ...
初期不利于推广,老黄卡虽然分割,但是CUDA那套却是通用的
如果AMD只有专业卡能打,那么适配ROCM的开发者就更少了
ltpterry
发表于 2023-7-3 18:50
我不用lstm,但基本上复现出来是没什么区别的
统一Wall time吧:
dim=128: 10.7s
dim=256: 15s
dim=512: 30.8s
dim加到850的时候RuntimeError:miopenStatusBadParm了,虽然看着VRAM只用了16000MB出头,还是上不去
等我的主板返修回来再用雷7跑一次
Haha303
发表于 2023-7-4 03:14
pppig236
发表于 2024-6-24 09:14
本帖最后由 pppig236 于 2024-6-23 20:15 编辑
来挖坟,捡的辣鸡盖板3090跑默认的第一项只要5s
对比68xt rocm 40s。。。
68xt
netjunegg
发表于 2024-6-24 09:49
fairness 发表于 2023-6-22 23:06
为什么割裂不是好事情呢?术业有专攻,不同类型的卡用不同的架构,做不同的事情。
我感觉老黄也在这么 ...
NV的cuda不管高高中低档卡配的几乎都有,对于普及推广非常有利。cuda早期没人用的时候纯粹是增加硬件成本,但是人家就是不惜代价,眼光比较长远,格局较大
chenwen834
发表于 2024-6-24 09:50
nlnjnj 发表于 2023-6-25 09:08
初期不利于推广,老黄卡虽然分割,但是CUDA那套却是通用的
如果AMD只有专业卡能打,那么适配ROCM的开发 ...
AMD就应该让APU也能用ROCM,虽然只是玩具
但可以在学生群体里广泛推广
wjxiz
发表于 2024-6-24 09:53
wjxiz
发表于 2024-6-24 10:02
路西法大大
发表于 2024-6-24 10:05
本帖最后由 路西法大大 于 2024-6-24 10:09 编辑
Neo_Granzon 发表于 2023-6-22 04:30
不用这么麻烦,直接把79xt降价到3000比你那个好使。
大显存专业卡当游戏卡便宜卖是少赚点,游戏卡卖跳楼价是要亏钱的
Leciel
发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。
7900xtx在文生图领域rocm就比4070快个10%。兼容性不错。
在使用zluda的情况下windows可以取得比Linux rocm更好的结果,主要是loading time更短。兼容性差一些。
周末测了一下wsl2 rocm 6.1.3,兼容性问题很多,勉强可以跑起来,速度也不如zluda。不过进入wsl 2的大门还是给我很多惊喜,微软做的不错。
ollama没对比,主要是7900xtx足够快,8b参数以下基本上没什么等待时间。
pppig236
发表于 2024-6-24 10:30
chenwen834 发表于 2024-6-23 20:50
AMD就应该让APU也能用ROCM,虽然只是玩具
但可以在学生群体里广泛推广
apu新架构的貌似真能用
JackyQ2021
发表于 2024-6-24 10:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件,大公司有钱有自己的专业团队。老黄牛皮哄哄的说新AI显卡必须装在他的机柜里,微软不鸟他,说不可以装在自己采购的机柜里就放弃老黄的新Ai卡,老黄还不是乖乖的说微软随意,想怎么装就怎么装
fluttershy
发表于 2024-6-24 10:39
ZLUDA都比DirectML强
pppig236
发表于 2024-6-24 10:44
JackyQ2021 发表于 2024-6-23 21:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件 ...
确实,别的不说,学校实验室里面就是两块4090
但是学校的超算都是dddd[偷笑]
(我觉得老黄主要客户是学校 :(
liu3yang3715
发表于 2024-6-24 10:58
Rocm和CUDA的显存利用率居然还不一样,我以为一样的数据,显存占用会是一样的。
平安是福
发表于 2024-6-24 11:32
JackyQ2021 发表于 2024-6-24 10:37
老黄的软件优势只是针对小公司和个人用户,那些巨头哪个是用老黄的通用软件,都是自己专门优化的模型和软件 ...
微软采购的不是mi300x吗,又进了b200的订单吗[晕倒]
JackyQ2021
发表于 2024-6-24 11:38
本帖最后由 JackyQ2021 于 2024-6-24 11:39 编辑
平安是福 发表于 2024-6-24 11:32
微软采购的不是mi300x吗,又进了b200的订单吗
老黄新卡发布会上不是展示了自家的机柜吗?新卡模块都是直接插在自家的机柜里,
老黄要求新卡用户必须用老黄的机柜安装新卡模块,结果微软不鸟老黄。
老黄机柜的目的是绑定用户,以后升级其他厂商的AI卡会很麻烦,一般机房机柜都是
统一标准的,老黄的不是标准的
Neo_Granzon
发表于 2024-6-24 13:02
Leciel 发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。
7900xtx在文生图领域rocm就比4070快个10% ...
农企自己的卡,跑农企亲儿子ROCM,居然打不过intc不要的孤儿zluda,这真的令人迷惑。
Neo_Granzon
发表于 2024-6-24 13:04
fluttershy 发表于 2024-6-24 10:39
ZLUDA都比DirectML强
zluda甚至比农企亲儿子ROCM都强,DirectML这种流浪汉是没前途的。
大头吃小头
发表于 2024-6-24 13:12
Leciel 发表于 2024-6-24 10:26
4090没有,只有4070。股票预测没有,stable diffusion和ollama。
7900xtx在文生图领域rocm就比4070快个10% ...
wsl2支持a卡了?我前面折腾wsl的时候在wsl里找不到a卡也找不到a卡驱动啊,上网一搜发现就2020年有个驱动标明支持wsl
寒蝉鸣泣
发表于 2024-6-24 13:35
来迟了 页面不存在了
装陈醋的酱油瓶
发表于 2024-6-24 14:22
yangzi123aaa20 发表于 2023-6-22 04:53
跑int8推理的话79xtx确实就4090的十分之一算力吧,感觉没啥问题
a卡没有类似tensor 的单元吗?
cloudybeyond
发表于 2024-6-24 14:25
请问这个具体怎么使用,能够用于A股么?
我有兴趣研究下
Flanker
发表于 2024-6-24 14:26
JackyQ2021 发表于 2024-6-24 11:38
老黄新卡发布会上不是展示了自家的机柜吗?新卡模块都是直接插在自家的机柜里,
老黄要求新卡用户必须用 ...
哪来的沙雕传闻,是所有服务器厂商都不做n卡方案了吗
fluttershy
发表于 2024-6-24 15:10
Neo_Granzon 发表于 2024-6-24 13:04
zluda甚至比农企亲儿子ROCM都强,DirectML这种流浪汉是没前途的。
所以之前要封杀 WIN下面效率比linux ROCM还强