英国大力士 发表于 2022-9-8 23:13

chenwen834 发表于 2022-9-8 23:27

印象中,ROCm只支持linux

英国大力士 发表于 2022-9-8 23:33

T.JOHN 发表于 2022-9-8 23:41

这个问题估计只有树导能回答你,不过我估计他也没a卡,几大ai benchmark网站我就没见过用a卡的。这玩意还是个生态问题,cuda对tensorflow和pytorch支持好多年了,累计优势不是一点半点,而且a卡的fp32也没优势,劝楼主还是老老实实n卡保平安

yangzi123aaa20 发表于 2022-9-8 23:43

不要把时间浪费在写轮子上,买A卡炼丹浪费生命

英国大力士 发表于 2022-9-8 23:44

英国大力士 发表于 2022-9-8 23:44

BetaHT 发表于 2022-9-8 23:47

yangzi123aaa20 发表于 2022-9-8 23:43
不要把时间浪费在写轮子上,买A卡炼丹浪费生命

很想说炼丹本就挺费人的。。

zhuifeng88 发表于 2022-9-9 00:02

本帖最后由 zhuifeng88 于 2022-9-9 00:03 编辑

英国大力士 发表于 2022-9-8 23:44
n卡显存容量稍微大一点的都太贵了,我只是业余搞一搞

你买张垃圾堆里捡出来的P40之类老卡也比6700xt浪费生命强, 显存更大更便宜实际能跑出来的性能更好兼容性也更好

dml后端的话, 先不说至少一半轮子没法简单改改跑起来, 能跑起来的里面又得有至少一半复现不了原文结果

英国大力士 发表于 2022-9-9 00:08

zhuifeng88 发表于 2022-9-9 00:11

英国大力士 发表于 2022-9-9 00:08
好的,p40如果平时玩玩游戏相当于多少,1080ti吗

p40你想跑游戏那得另外找张亮机卡或者核显输出, 帧率损失多少就看具体游戏了

英国大力士 发表于 2022-9-9 00:12

英国大力士 发表于 2022-9-9 00:20

zhuifeng88 发表于 2022-9-9 00:21

本帖最后由 zhuifeng88 于 2022-9-9 00:23 编辑

英国大力士 发表于 2022-9-9 00:20
想了一下,能炼丹一下又能游戏一下又很便宜的,2080ti是不是?

11G你不嫌小那当然行, 这显存容量基本上是没各路attention结构太多事了

某人的马甲 发表于 2022-9-9 00:24

前几天刚好看了坛里一篇文章:
深度学习硬件指南, 解析DL调试机NUC12飞龙峡谷+RX6800/RTX3060
https://www.chiphell.com/thread-2438367-1-1.html
(出处: Chiphell - 分享与交流用户体验)

alwayskid 发表于 2022-9-9 00:31

几个月前想把一个简单的拟合改到DML试试效率
结果那个版本的pytorch,MSELoss不能用在DML设备上……

xeon13 发表于 2022-9-9 00:33

补充一点买入A卡炼丹存在巨大的未来不确定性,买了之后后续其他人用N卡或者TPU把新的研究结果模型搞出来了的时候,极少数工作极少数人会在A卡上实现复现然后放出代码,这时候你可能就会想一下是要自己重新每一个模型都把复现实现一遍,为开源事业做出不可磨灭的贡献,还是干脆弃A投N,把时间花在真正的模型调试上了。玩过开源项目的都知道即使是在N卡的实现的复现,也经常有花大量的时候去踩坑的情况发生,更别说不确定性更高的A卡。 珍惜生命,远离重复造轮子。

用户 发表于 2022-9-9 00:39

A卡也还是显卡。老黄不翻车的话A卡没有优势可言,翻车的话就感谢amd让我们用上便宜的h100。深度学习未来还是tpu等专门的加速器,想尝鲜不如找tenstorrent要个云账户。

chu8129 发表于 2022-9-9 09:45

n都会有一些奇奇怪怪的bug,你要用a?

hum741 发表于 2022-9-9 21:43

现在买点3090矿比啥都强

我輩樹である 发表于 2022-9-10 09:17

A卡能炼丹,我想主要也是给做ai实施的人用,做研发的不追求静态的支持,而是长期的,滚动的支持。

xinxin1982 发表于 2022-9-10 13:39

yangzi123aaa20 发表于 2022-9-8 23:43
不要把时间浪费在写轮子上,买A卡炼丹浪费生命

严重同意,折腾rocm的时间还是好好买个n卡吧。。
页: [1]
查看完整版本: A卡是不是也能炼丹了,在win11下pytorch性能如何