5090的核心频率-电压-功耗表现让我回想起用3080Ti的日子
本帖最后由 PPXG 于 2025-1-24 00:16 编辑4090 4080之类的的功耗表现大家应该都很清楚了,比较典型的特点就是你会发现许多游戏并不能顶满450W的TGP跑,甚至你开启DLSS之后还会随着DLSS档位(原始渲染分辨率会降低)进一步下降,某些450W喂不饱会撞pwr墙的游戏开个DLSS功耗也下来了,此时游戏全程频率几乎顶满boost频率,撞Vrel墙。
参考TPU的4090FE测试情况:
但是5090的核心功耗很明显并没有4090那么充裕,在(多个负载不同的)gaming场景下,最高可以抓取到2910MHz@1.075V,但是平均频率只有区区2684MHz,电压也只有1.02V左右,2077作为TPU选取的一个典型游戏场景表现类似。在2077开启光线追踪的情况下,频率甚至进一步降低至2430MHz左右,电压也只能跑在0.97V上下。
5090FE
这说明了一件事:575W的TGP并不能在绝大多数游戏场景满足5090核心GB202跑满boost和电压的恐怖需求,如果5090想在中高压力游戏内跑到较高的频率,575W远远不够。
这样看5090的表现反倒更接近当年350W TGP下的3090/3080等显卡:因为第一代GDDR6X吃电等多种原因,GA102也存在高压力场景下跑不满的问题,可能游戏负载小一些可以看到1965MHz,压力大一些就只能跑在1875MHz附近了。
3090AMP(他们没测FE)
所以回过头来结合4090 5090二者的典型核心表现,其实5090对比4090的实际能耗比差距要比媒体直接默认状态测出来的再大一些——这种撞功耗墙被动降频的情况已经类似于4090去玩降压超频了,5090对比下来会吃点降频导致的能耗比测算值提升的小福利。
贴个侧面对比:4090 2895MHz@1075mV对比2760MHz@1000mV,后者功耗低了12%左右
至于5090这个情况,到底是GB202真的是本身规模确实太吃电,还是GDDR7这块功耗表现比预期的大导致“偷电”,只能等有深度的评测媒体或者后续拿到卡的大佬研究了[偷笑]
(PS:目前GPUZ和HWINFO的软显应该都有问题)
(PS2:GDDR7的实际运行频率应该是等效频率÷12,GPUZ还是按照÷16去算的,所以GPUZ里显示5090的mem频率为1750MHz(1750x16=28000),实际应该是2333(2333x12=28000)) 本帖最后由 atiufo 于 2025-1-23 23:27 编辑
最要命的是距离物理上限这么近,没得救了[偷笑]
真要看50系的能耗比还得看5080的表现,大概率也就是持平 换个说法就是850w电源能带5090了[偷笑] 看了一下GN的评测,能耗比已经很丑陋了,如果像你说的给4090也降压超频一下对比,那真的没脸看了[偷笑] 电网最佳合作伙伴,冬天免费的电暖器 不用研究。。。512bit的外围一定会吃很大功耗的,实际上4090的384bit就不小,历史上512bit的卡全都是超级大火炉
steam免费游戏quake2rtx(但锁区)可以去试一下,给4090降低到250w,你会发现核心频率低的令人发指,功耗全被384bit的显存吃完了。。。
我看5090更像是Hawaii再世,这个翻车程度和当年290X一模一样,尤其是512BIT 制造工艺没变 架构又不换,强行扩大规模就是这样的。但凡他用3nm我都当他努力过了,结果还是为了利润压低成本用老工艺
页:
[1]