找回密码
 加入我们
搜索
      
查看: 4166|回复: 12

[显卡] 转:5090与5090D在深度学习模型上的基准性能测试

[复制链接]
发表于 2025-4-12 18:12 | 显示全部楼层
本帖最后由 welsmann 于 2025-4-12 18:19 编辑

说实话,感觉经典CV领域基本上已经是边际效应拉满了,正如楼上所述,一个词评价,

williamqh 发表于 2025-4-10 11:37
为什么呀?他用的模型不都是一些已知模型么?

因为实现距离硬件性能上限太远, 就算有锁也撞不到锁
上面那些测试项目本身规模太小, 就算充分优化, 训练时tensorcore使用率都一般不会到10%, 而手搓pytorch代码更是"就算充分优化"这个假设都大概率不存在了

你会认为测红警的帧率能代表2025年旗舰卡的性能吗

如测  -_-||


Ampere以后,重心开始倾向低精度。
没有FP4的测试,就算了,你可以跟我说pytorch还没跟上

那,
为什么没有FP8的测试?

还有,之前坛子里类似的贴子中,
有人之前跟我说训练和推理对卡的负载相似,但为什么没有训练的测试呢?

应该能体现普遍性的呀

以前针对4090的优化的FP8脚本也拿出来看看喽,反正FP8都兼容的。
跑个FP8的FLUX1. Lora测试一下呗~4090都能吃满的
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-10-9 05:03 , Processed in 0.006389 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表