各家4060烤鸡频率差距巨大,根本原因是什么造成的?
看了看本坛的4060新品评测,发现一个问题。furmark烤鸡时,只有ROG系列的gpu频率为2200+Mhz,其他3家的,基本都是1600-1640Mhz。
考虑到bios功耗设定有了大概40w的差距,但如此夸张的差异也是很奇特。
思考后,个人认为,如此巨大差异,也许是来自硬件的长时间重载的承受能力上?
(豪华堆料)
如果真是这样,为何显卡制造商不拿到纸面上大张旗鼓的宣传~? 本帖最后由 PPXG 于 2023-7-9 18:44 编辑
仔细看了下评测 很奇怪 慢慢分析
观察ROG和MSI Galax Colorfire等显卡的测试图(只看了性能测试烤机第一张),ROG电压是0.875V,而另外几张卡0.870V
如果你用afterburner打开RTX20及以后的显卡curve曲线观察,你会发现0.870V和0.875V两个点是相邻的,频率差距一般是15MHz
那为什么差了50mV,两张卡频率却查出来五六百MHz呢?
这就不得不提在40系显卡上,核心的最低电压明显高于30系,一般为0.875V上下(也见过可以降低到0.870V的,比如另外三张卡),据说是因为这一代L2相比前代需要的最低电压更高,30系没记错的话好像是0.775V上下。
也就是说当核心电压降到0.875V的时候,无法继续降低电压的同时降低频率,想要降低核心功耗,只能单独降低核心频率。无论210MHz还是2205MHz,都只能跑0.875V。
另外三张卡应该是给的整卡功耗不够支撑这个测试项目跑满,核心分到的功耗也不足,所以不得已核心降频了(ROG 83W 另外三张俩67W一个70W),另外应该也会有curve的区别(这几张卡的预设boost clock不同,反映到curve上也会有对应的区别)或者其他不为人知的调教进一步放大这种差异,而且温度也会助力放大一些GPU boost的频率差异
至于为什么不拿上来宣传,因为furmark noAA本身就是一个除了压榨晶体管尽可能压榨显卡功耗到最大以外根本不能反映实际游戏表现的测试,noAA的负载大到让很多显卡根本跑不到boost频率出现大幅度降频,4090跑4K noAA我跑出过平均580W的恐怖功耗,甚至频率没跑满,而实际打游戏嘛,只有4K不开DLSS的路径追踪才能上到550W,而且是软件检测精度下的峰值不是平均。实际打游戏的话,大家的实际运行频率不会这么夸张,所以宣传我家显卡烤机频率高,不如简单粗暴的宣传功耗高散热好。。。 PPXG 发表于 2023-7-9 18:42
仔细看了下评测 很奇怪 慢慢分析
观察ROG和MSI Galax Colorfire等显卡的测试图(只看了性能测试烤机第一张 ...
所以,这是刚好卡在最低电压点了,所以失去了参考意义?
sinopart 发表于 2023-7-9 19:01
所以,这是刚好卡在最低电压点了,所以失去了参考意义?
这么理解好像也没问题 furmark烤鸡用来看看gpu散热器上限就行了,他的负载和实际使用严重脱节的。典型例子就是笔记本4060 4070厂家给的140瓦释放只有furmark能跑出来,其他大部分情况给到115~120瓦就跑满了。这情况倒是跟桌面卡非常接近,strix oc 4060给的tgp刚好也是40瓦,其他非公卡有些只给了110瓦,跟笔记本平台的表现几乎一致。
页:
[1]