qiuhepeng 发表于 2023-5-2 23:02

4080以后能改成32g吗

我打游戏,也在学统计和机器学习,以后16g会不会不够用,如果不买4090,直接改4080到32g有没有可行性

aozorahishi 发表于 2023-5-2 23:06

得看NV出不出这个规格的专业卡

kinglfa 发表于 2023-5-2 23:30

现在是2G×8,等出4G一片的GDDR6X,但到那时候该是GDDR7了吧

电子管退烧友 发表于 2023-5-2 23:39

本帖最后由 电子管退烧友 于 2023-5-2 23:43 编辑

改显存得不偿失,真不如原装未拆卖了买新的。

qiuhepeng 发表于 2023-5-2 23:41

好吧,那就16g继续用,是不是专业应用也能用用

木子滴血 发表于 2023-5-2 23:47

未来的事未来再说,说不定老黄哪天善心大发了()

imluvian 发表于 2023-5-2 23:53

GDDR6应该生命周期内不会出更高密度的颗粒了。。

goodlhc 发表于 2023-5-2 23:56

还是4090吧

lh4357 发表于 2023-5-3 01:06

其实3090改成48g倒是有可能。[无奈]

raiya 发表于 2023-5-3 01:53

本帖最后由 raiya 于 2023-5-3 01:55 编辑

模型要是大了,32G也没用。要有效的设置训练,8G以上实际上都是够的。

而且关键是训练速度,4090不光是显存大,速度本身比4080快三分之一到一半。显存你可以通过设置让他不塞满,但是运行起来GPU总是满载的。

再说了,你都想着花钱去升级32G了,那不如现在就把这钱花在升级到4090上。

当然咯,4080不是不能用,特别是你只是拿来玩玩的话,这个差价可以买齐CPU主板内存了。

邪恶的光B 发表于 2023-5-3 02:07

也许有,我支持LZ对于未来无限的可能性的拓展,加油!干死老黄!!!你肯定会成功的!!!~~~[偷笑][偷笑][偷笑]

dodd 发表于 2023-5-3 02:09

raiya 发表于 2023-5-3 01:53
模型要是大了,32G也没用。要有效的设置训练,8G以上实际上都是够的。

而且关键是训练速度,4090不光是显 ...

完全自己炼的话显存占用可以自己调节一下。

但大显存的好处是一旦外面出了什么新模型自己能比别人更早跑起来。现在很多新模型刚出来的时候都超大,然后慢慢地压到单卡a100 80GB能跑起来,再过两个月优化到单卡a6000 48GB能跑起来,再过几个月才能轮到24GB 16GB这些卡。如果有生产力或者追新需求的话比别人快几个月这种优势就相当大了。

BFG9K 发表于 2023-5-3 02:56

你等A5000 ADA不就好了,就是32G的

盐湖 发表于 2023-5-3 04:51

楼上说的3090改48确实更现实点,本质上是1G改2G,但是问了改显存的不给改,由于老黄的独裁与垄断,我不禁猜测很有可能是为了防止改48G严重影响48G的专业卡销售,才对这种特殊渠道也下命令禁止的。

ghgfhghj 发表于 2023-5-3 07:12

lh4357 发表于 2023-5-3 01:06
其实3090改成48g倒是有可能。

咸鱼就有

乐乐的洋芋 发表于 2023-5-3 08:54

過保修了再説吧

KiraPikaPika 发表于 2023-5-3 09:35

第一g6x应该不会出单颗4g的容量了。第二老黄没出对应显存的vbios即使有颗粒改了也不识别

BFG9K 发表于 2023-5-3 09:36

盐湖 发表于 2023-5-3 04:51
楼上说的3090改48确实更现实点,本质上是1G改2G,但是问了改显存的不给改,由于老黄的独裁与垄断,我不禁猜 ...

不要阴谋论了,是3090的vbios里没有给2G单颗显存的参数,你改了也亮不了

2060改12G,笔记本3060改12G,2080Ti改22G能行的唯一原因是vbios里有对应的显存参数,焊上就能用

dukeyli 发表于 2023-5-3 11:19

应该是改不了。

ljy1414 发表于 2023-5-3 11:48

ghgfhghj 发表于 2023-5-3 07:12
咸鱼就有

闲鱼有?来个链结,B站上只有翻车失败的

yguomin 发表于 2023-5-3 11:57

希望4090TI是32G

lwlsfy 发表于 2023-5-3 11:59

有点羡慕打游戏和学习同时进行的

pingyinzi 发表于 2023-5-3 12:26

一切等不够用了再说。假设使用的是tensorflow的环境下,可能会出现先塞满显存再跑的情况(不知道是版本问题还是什么其他原因),会给你一种显存不够用的假象,你需要添加“config=tf.compat.v1.ConfigProto()
config.gpu_options.allow_growth = True
sess=tf.compat.v1.Session(config=config)”(也可能存在其他优化方式)让他加载部分(或者说必要的)显存就直接跑。pytorch的环境用的少,不太清楚是否有和TF同样的现象。再假设你自己个人玩的话,你的数据量可能跑不满16G的显存。毕竟个人可以获取到的数据量有限。最后技术一直在进步。比如AMD的ROCM据说要上Windows了(linux下试过,一言难尽的使用体验),还有TF还是pytorch的下一个新版本说是要出一个cuda的代替性东西,用来改善显存不够用的状况。以上的二个可以当成是画大饼。总之手里有4080就先学起来,等真不够用或者快不够的时候再考虑。

qiuhepeng 发表于 2023-5-3 12:51

pingyinzi 发表于 2023-5-3 12:26
一切等不够用了再说。假设使用的是tensorflow的环境下,可能会出现先塞满显存再跑的情况(不知道是版本问题 ...

好的谢谢,目前先用来打游戏了,快的一逼,比6800xt翻倍了,甚至大力水手3后翻好几倍

bill2007 发表于 2023-5-3 18:45

ghgfhghj 发表于 2023-5-3 07:12
咸鱼就有

给个车看看呀   没搜到

晓古城 发表于 2023-5-3 18:54

[偷笑]这还有人捧,改显存体现老黄的刀法牛逼是吧

周喆 发表于 2023-5-3 19:23

yguomin 发表于 2023-5-3 11:57
希望4090TI是32G

搞清楚位宽和容量对应关系再说吧

ghgfhghj 发表于 2023-5-3 19:49

ljy1414 发表于 2023-5-3 11:48
闲鱼有?来个链结,B站上只有翻车失败的

https://m.tb.cn/h.UGpu4ax?tk=pYqKdNUSIUt

这家评论区说是可以改,但能不能成功我就不知道了[偷笑]

ghgfhghj 发表于 2023-5-3 19:51

yguomin 发表于 2023-5-3 11:57
希望4090TI是32G

4090ti大致参数已经有了,142sm 24g gddr6x 24gbs 600w

ljy1414 发表于 2023-5-3 20:08

ghgfhghj 发表于 2023-5-3 19:49
https://m.tb.cn/h.UGpu4ax?tk=pYqKdNUSIUt

这家评论区说是可以改,但能不能成功我就不知道了 ...

K4ZAF325BM-HC16,这型号是RX6900的原装显存,是GDDR6,不是GDDR6X,到底怎改的?? 奇怪的问号增加了

https://cdn.jsdelivr.net/gh/master-of-forums/master-of-forums/public/images/patch.gif
页: [1] 2 3
查看完整版本: 4080以后能改成32g吗