找回密码
 加入我们
搜索
      
楼主: htyjojo

[CPU] CPU集成的AI性能

[复制链接]
发表于 2024-2-24 05:46 来自手机 | 显示全部楼层
YsHaNg 发表于 2024-2-24 01:22
有没有intel家的消息? 还有m3那个支不支持int8

intel  npu的10.6tops是int8,fp16是5.3tops
Screenshot_2024-02-23-15-57-14-889_com.bilibili.app.in.jpg
发表于 2024-2-24 09:03 | 显示全部楼层
psps3 发表于 2024-2-23 15:22
没记错的话,
8845的npu算力是16TOPS
ultra的npu算力是10.6TOPS

这个16TOPS是INT4、INT8、FP16还是FP32?如果是INT4、INT8那这个只能用于语言模型

很多深度学习模型是要FP32精度的,FP16训练容易炸,老老实实用N卡才行
发表于 2024-2-24 09:04 来自手机 | 显示全部楼层
fengpc 发表于 2024-2-24 09:03
这个16TOPS是INT4、INT8、FP16还是FP32?如果是INT4、INT8那这个只能用于语言模型

很多深度学习模型是要 ...

看你楼上的图里有
发表于 2024-2-24 09:12 | 显示全部楼层
用NPU的INT8部署的时候量化蒸馏还得再训练一次,效果还不一定好,跑个人脸识别都不太行
这种精度只适合用于对精度要求极低、暴力堆参数的基于transformer的语言大模型,但是就这16TOPS算力跑个大模型也是够呛。
发表于 2024-2-24 09:20 来自手机 | 显示全部楼层
fengpc 发表于 2024-2-24 09:12
用NPU的INT8部署的时候量化蒸馏还得再训练一次,效果还不一定好,跑个人脸识别都不太行
这种精度只适合用 ...

等下一代出来再看看吧,AMD的ppt说3倍
6e7d56b47a9e2a2a.jpg
发表于 2024-2-24 09:21 来自手机 | 显示全部楼层
fengpc 发表于 2024-2-24 09:03
这个16TOPS是INT4、INT8、FP16还是FP32?如果是INT4、INT8那这个只能用于语言模型

很多深度学习模型是要 ...

这就是推理用的呀,拿来跑训练想多了。
发表于 2024-2-24 11:34 | 显示全部楼层
桌面的NPU好像是给WIN12和WIN11末期版本做人工智能功能上的适配的,其他第三方软件和大部分生产力软件好像暂时没看到有什么应用。希望后期什么达芬奇的能用NPU把该死的特效预览给整得流畅一点吧,谢天谢地了。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2024-5-29 13:49 , Processed in 0.009566 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表