找回密码
 加入我们
搜索
      
查看: 3444|回复: 6

[显卡] 分享手头三个N卡的AI计算速度对比(个人程序)

[复制链接]
发表于 2024-4-8 01:14 | 显示全部楼层
用户 发表于 2024-4-8 00:59
AI一般不用double,都是float,bfloat

准确来说.......FP32算是out了
现在基本盘是BF16/FP16
FP8是40系tensor的主流,Blackwell的FP6估计还能提一级
LLM好像可以量化到int4
至于fp64感觉更像是有限元仿真......
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-30 14:01 , Processed in 0.008980 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表