Chiphell - 分享与交流用户体验

标题: CPU集成的AI性能 [打印本页]

作者: htyjojo    时间: 2024-2-23 15:12
标题: CPU集成的AI性能
8845和ultra,那边的ai性能更强呢?

再就是目前cpu集成的ai,有没有什么具体用途呢?
我听说就是个噱头,真要ai应用,还是要上显卡?
作者: archxm    时间: 2024-2-23 15:13
最有用的 ai 是高德导航
作者: psps3    时间: 2024-2-23 15:22
本帖最后由 psps3 于 2024-2-23 15:25 编辑

没记错的话,
8845的npu算力是16TOPS
ultra的npu算力是10.6TOPS
这只是单说的npu算力,没有计算gpu和cpu的算力,
总算力记得是,
amd说的是39tops,intel说的是34tops
作者: yuanye8887    时间: 2024-2-23 15:25
8845……
作者: htyjojo    时间: 2024-2-23 15:27
archxm 发表于 2024-2-23 15:13
最有用的 ai 是高德导航

额,高德不打招呼就自动换路线的人工智能,坑我不是一次两次了
作者: htyjojo    时间: 2024-2-23 15:28
psps3 发表于 2024-2-23 15:22
没记错的话,
8845的npu算力是16TOPS
ultra的npu算力是10.6TOPS

哦哦,谢谢!
作者: psps3    时间: 2024-2-23 15:29
本帖最后由 psps3 于 2024-2-23 15:57 编辑
htyjojo 发表于 2024-2-23 15:28
哦哦,谢谢!


网上看的数据
(, 下载次数: 102) (, 下载次数: 98)
作者: PolyMorph    时间: 2024-2-23 15:31
本帖最后由 PolyMorph 于 2024-2-23 15:56 编辑

ai算力不应该凑数,npu多少就是多少
(, 下载次数: 89)
作者: FelixIvory    时间: 2024-2-23 15:32
zen5 apu是50TOPS,这代全是电子垃圾。
作者: fszjq32    时间: 2024-2-23 15:36
提示: 作者被禁止或删除 内容自动屏蔽
作者: zhjook    时间: 2024-2-23 15:37
ai 啊,这些都是半斤八两, 过两年 迭代几次之后再说吧
作者: archxm    时间: 2024-2-23 15:45
htyjojo 发表于 2024-2-23 15:27
额,高德不打招呼就自动换路线的人工智能,坑我不是一次两次了

那你现在用啥导航?自己的脑子吗🤔
作者: htyjojo    时间: 2024-2-23 15:54
archxm 发表于 2024-2-23 15:45
那你现在用啥导航?自己的脑子吗🤔

百度啊,百度智能换路线时会先语音问询,我可以自己决定要不要改导航路线

不像高德,招呼也不打一个,悄悄就换了

很久没用高德了,不晓得现在是不是还这样
作者: htyjojo    时间: 2024-2-23 16:16
fszjq32 发表于 2024-2-23 15:36
在下一代面前,上一代都是电子垃圾。
那请问Zen5 apu什么时候出呢?Zen6,7,8? ...

今年出zen5,明年的apu-9000系列应该会换成zen5了吧?zen4都用了7、8两代了
作者: htyjojo    时间: 2024-2-23 16:17
psps3 发表于 2024-2-23 15:29
网上看的数据

收到,谢谢
作者: htyjojo    时间: 2024-2-23 16:18
PolyMorph 发表于 2024-2-23 15:31
ai算力不应该凑数,npu多少就是多少


这么看起来,手机端的也没多高啊,8gen3也才15

不过手机端的ai应用倒是广泛些,我日常用手机也接触得到
作者: zhuifeng88    时间: 2024-2-23 16:29
PolyMorph 发表于 2024-2-23 15:31
ai算力不应该凑数,npu多少就是多少


但是到实际项目头上, npu部署无比恶心, 特定模型结构/算子在npu上效率极低甚至跑不了, 大量模型在手机上也是gpu甚至cpu跑的, 只看npu算力那很多时候是只能看看根本用不上的虚空算力...
作者: FelixIvory    时间: 2024-2-23 16:30
本帖最后由 FelixIvory 于 2024-2-23 16:32 编辑
fszjq32 发表于 2024-2-23 15:36
在下一代面前,上一代都是电子垃圾。
那请问Zen5 apu什么时候出呢?Zen6,7,8? ...


7840h是10TOPS,8840h是16TOPS,win12要求45-50TOPS。
我可不是乱说,为了适配win12,下代npu算力提升远比这代马甲提升大多了。
作者: hawkrei    时间: 2024-2-23 16:34
拿来做软路由时,用于OFFLOAD加速,不懂行不行
作者: 威尼斯睡裤    时间: 2024-2-23 16:37
https://www.chiphell.com/thread-2585301-1-1.html
官方说得很清楚了
作者: PolyMorph    时间: 2024-2-23 17:42
htyjojo 发表于 2024-2-23 16:18
这么看起来,手机端的也没多高啊,8gen3也才15

不过手机端的ai应用倒是广泛些,我日常用手机也接触得到 ...


这个是8cx gen3 面向笔记本的
8gen3强多了
作者: rx_78gp02a    时间: 2024-2-23 18:01
hawkrei 发表于 2024-2-23 16:34
拿来做软路由时,用于OFFLOAD加速,不懂行不行

一个是Network Processing Unit,一个是Neural-network Processing Unit,压根不是一个东西。
作者: htyjojo    时间: 2024-2-23 18:47
PolyMorph 发表于 2024-2-23 17:42
这个是8cx gen3 面向笔记本的
8gen3强多了

哦哦,是我搞错了,谢谢
作者: YsHaNg    时间: 2024-2-23 18:49
FelixIvory 发表于 2024-2-23 08:30
7840h是10TOPS,8840h是16TOPS,win12要求45-50TOPS。
我可不是乱说,为了适配win12,下代npu算力提升远 ...

学学a17 一样的东西开个int8立马翻倍 不行再来个int4 当然你这代没规划复用能力就算了
作者: zxwangzidd    时间: 2024-2-23 20:23
htyjojo 发表于 2024-2-23 15:54
百度啊,百度智能换路线时会先语音问询,我可以自己决定要不要改导航路线

不像高德,招呼也不打一个,悄 ...

别提百度,百度也是这德行!
前几天高速,真就突然给你变道~
作者: af_x_if    时间: 2024-2-23 22:23
YsHaNg 发表于 2024-2-23 18:49
学学a17 一样的东西开个int8立马翻倍 不行再来个int4 当然你这代没规划复用能力就算了 ...


XDNA的10/16tops指的就是int8性能

这是7000APU的ppt
可以看到10 int8 TOPs,20 int4 TOPs,5 BF16 TFLOPs。
作者: xjr12000    时间: 2024-2-23 22:26
和显卡比估计就还没发育呢

作者: fairness    时间: 2024-2-23 23:49
买个独显也不贵,还能用到更强的AI应用。
作者: YsHaNg    时间: 2024-2-24 01:22
af_x_if 发表于 2024-2-23 14:23
XDNA的10/16tops指的就是int8性能

这是7000APU的ppt

有没有intel家的消息? 还有m3那个支不支持int8
作者: Illidan2004    时间: 2024-2-24 01:45
FelixIvory 发表于 2024-2-23 16:30
7840h是10TOPS,8840h是16TOPS,win12要求45-50TOPS。
我可不是乱说,为了适配win12,下代npu算力提升远 ...

gpu部分可以算的  所以8840才基本弄到40
而且眼下的话 实际上gpu部分才是最容易用的  npu需要适配   
作者: psps3    时间: 2024-2-24 05:46
YsHaNg 发表于 2024-2-24 01:22
有没有intel家的消息? 还有m3那个支不支持int8

intel  npu的10.6tops是int8,fp16是5.3tops
(, 下载次数: 54)
作者: fengpc    时间: 2024-2-24 09:03
psps3 发表于 2024-2-23 15:22
没记错的话,
8845的npu算力是16TOPS
ultra的npu算力是10.6TOPS

这个16TOPS是INT4、INT8、FP16还是FP32?如果是INT4、INT8那这个只能用于语言模型

很多深度学习模型是要FP32精度的,FP16训练容易炸,老老实实用N卡才行
作者: psps3    时间: 2024-2-24 09:04
fengpc 发表于 2024-2-24 09:03
这个16TOPS是INT4、INT8、FP16还是FP32?如果是INT4、INT8那这个只能用于语言模型

很多深度学习模型是要 ...

看你楼上的图里有
作者: fengpc    时间: 2024-2-24 09:12
用NPU的INT8部署的时候量化蒸馏还得再训练一次,效果还不一定好,跑个人脸识别都不太行
这种精度只适合用于对精度要求极低、暴力堆参数的基于transformer的语言大模型,但是就这16TOPS算力跑个大模型也是够呛。
作者: psps3    时间: 2024-2-24 09:20
fengpc 发表于 2024-2-24 09:12
用NPU的INT8部署的时候量化蒸馏还得再训练一次,效果还不一定好,跑个人脸识别都不太行
这种精度只适合用 ...

等下一代出来再看看吧,AMD的ppt说3倍
(, 下载次数: 51)
作者: af_x_if    时间: 2024-2-24 09:21
fengpc 发表于 2024-2-24 09:03
这个16TOPS是INT4、INT8、FP16还是FP32?如果是INT4、INT8那这个只能用于语言模型

很多深度学习模型是要 ...

这就是推理用的呀,拿来跑训练想多了。
作者: 小梦    时间: 2024-2-24 11:34
桌面的NPU好像是给WIN12和WIN11末期版本做人工智能功能上的适配的,其他第三方软件和大部分生产力软件好像暂时没看到有什么应用。希望后期什么达芬奇的能用NPU把该死的特效预览给整得流畅一点吧,谢天谢地了。




欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) Powered by Discuz! X3.5