找回密码
 加入我们
搜索
      
查看: 8490|回复: 35

[CPU] NPU 这个最近很火的单词 名词,求解答

[复制链接]
发表于 2023-12-19 16:57 | 显示全部楼层 |阅读模式
NPU 能百度到的有用信息就是名字:嵌入式神经网络处理器或者神经网络处理器。

看了很多文章,没有一篇文章能够清楚的描述这是个什么东西,都是吹怎么怎么牛,怎么厉害,甚至连应用都讲不清楚,最多给出 可以同时并行执行指令和数据传递。


求大佬解惑答疑,这到底是个什么,与GPU一堆core 并行处理 有什么区别?或者其实是一个东西的不同名称?

发表于 2023-12-19 17:06 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2023-12-19 17:12 | 显示全部楼层
路由器里面不也经常出现这个词么
发表于 2023-12-19 17:15 | 显示全部楼层
gbawrc 发表于 2023-12-19 17:06
本来就是个噱头,跟AMD的APU,高通的SOC是一个概念,过几年就无人问津

虽然但是SoC确实是个老概念了
发表于 2023-12-19 17:23 | 显示全部楼层
zexin4 发表于 2023-12-19 17:12
路由器里面不也经常出现这个词么

路由器就是高通瞎掰的,实际上就是硬件转发,mtk叫hwnat
发表于 2023-12-19 17:26 | 显示全部楼层
噱头,这玩意你说它战未来也没啥问题,但真的未来来了,现在这NPU估计也不支持或者是淘汰了
发表于 2023-12-19 17:35 | 显示全部楼层
明眼人一看你是来水的都不想回
发表于 2023-12-19 17:57 | 显示全部楼层
神经网络本质是在用梯度下降法来求高维向量函数的各个系数。

NPU就是可以实现该计算过程的硬件。

发表于 2023-12-19 17:58 | 显示全部楼层
本帖最后由 PolyMorph 于 2023-12-19 18:07 编辑

给端侧用ai模型进行推理,dlss就是推理像素,端侧用的最多的图像识别,文字语音理解
主要是int8 fp8矩阵加乘,比CPU功耗低
发表于 2023-12-19 18:04 | 显示全部楼层
这东西普通人比较难理解很正常,即便是计算机专业的没接触过也是比较难理解的
通俗易懂的讲就是,路由器知道吧,有个NAT硬件加速芯片,数据包可以用这个硬件芯片实现直接转发,不用通过CPU计算直接得到想要的结果,NPU同理就是专门设计出来给神经网络计算用的,既然是专用的那么肯定比cpu计算效率要高,如果路由器例子听不懂,视频转码里硬件编码和软件编码也是类似的东西,其中软件编码就是通过CPU设计算法去转换计算的,硬件编码是硬件已经设计好的电路直接得出结果,省略了转换的步骤
至于应用部分,也可以用视频举例,就是你电脑支持硬解这个软件的能力,和不支持硬解只能软解的区别,多个NPU会快一点,就是个专门给AI算法加速的东西
发表于 2023-12-19 18:31 来自手机 | 显示全部楼层
就是提供了适合ai的低功耗低精度算力
相对gpgpu就是功耗低,精度选择面小
发表于 2023-12-19 18:45 | 显示全部楼层
npu的n就是代表神经网络(neural network)吧;理论上只要愿意写所有用神经网络构造的AI算法都能写到NPU上,问题是不同厂家的NPU开发互相不兼容,所以目前也就是终端厂家的系统级应用会愿意费那个劲去调用NPU。

至于用途...明白最开始NPU出现的用途就是为了在某些AI场景里面取代CPU/GPU就OK了,优势主要体现在手机这种电量有限的设备上(功耗低了,手机续航就能多出一两个小时)。现在转战电池同样有限的笔记本我稍微能理解,等过两天台式处理器也上NPU的话乐子就有点大了
发表于 2023-12-19 20:20 | 显示全部楼层
network process unit
neural process unit

最近这两个概念比较火

都是炒概念
发表于 2023-12-19 20:42 | 显示全部楼层
路由知道
ASIC
FPGA
这类旁路芯片
MTK叫hwnat 7621a能稳定调用的路由挺好使
高通叫nss 跑各种流量加密不吃u

发表于 2023-12-19 20:46 | 显示全部楼层
NPU==脑PU,就是AI用的PU
发表于 2023-12-19 21:59 | 显示全部楼层
本质是一种跟矿机一样AISC,专用电路,只要软件不兼容就是电热丝,远不如gpu,远远不如cpu灵活
发表于 2023-12-19 23:22 | 显示全部楼层
我的理解是针对某种算法或应用的硬件加速,能不占用CPU/GPU资源来低功耗获得高运算性能,但目前使用场景有限,连Mac的AIE也基本没看到有啥软件会调用到。
发表于 2023-12-19 23:36 | 显示全部楼层
YoshinoSakura 发表于 2023-12-19 17:26
噱头,这玩意你说它战未来也没啥问题,但真的未来来了,现在这NPU估计也不支持或者是淘汰了
...

+1000086,就是付费内测。
发表于 2023-12-19 23:37 | 显示全部楼层
本帖最后由 tengyun 于 2023-12-19 23:38 编辑


是不是能这么理解
就是个残血版CPU(只保留某几个计算模式) 那其实早期的GPU 不就是现在的NPU 一个路数嘛
传统CPU 就是全能六边形战士
发表于 2023-12-19 23:39 | 显示全部楼层
噱头,无视就好了,或者,耗电的电阻丝。
发表于 2023-12-19 23:41 | 显示全部楼层
让你加钱呗,不但现在用不上,以后更指望不上
发表于 2023-12-20 02:09 | 显示全部楼层
GPU执行的是32位浮点数向量乘法,NPU执行16或者8位浮点数的矩阵乘法
发表于 2023-12-20 02:09 | 显示全部楼层
beasy 发表于 2023-12-19 08:59
本质是一种跟矿机一样AISC,专用电路,只要软件不兼容就是电热丝,远不如gpu,远远不如cpu灵活 ...

你有没有想过之所以CPU这么灵活,是因为内部ASIC种类够多。每次加指令集就是加了些ASIC进去
发表于 2023-12-20 02:39 | 显示全部楼层
CPU本质是加法器,npu本质是乘加器。cpu对流数据优化,npu对batch优化。
发表于 2023-12-20 06:10 | 显示全部楼层
对消费者来说,虽然比喻不准确,但道理差不多: 你可以理解为新增了一种需要硬件支持的功能,就像显卡支持DX11、DX12这样,显卡大换代时候新增的东西多了去了, 为什么包装上特地把DX12印出来, 一个道理
 楼主| 发表于 2023-12-20 09:17 | 显示全部楼层
BetaHT 发表于 2023-12-19 17:57
神经网络本质是在用梯度下降法来求高维向量函数的各个系数。

NPU就是可以实现该计算过程的硬件。

回复里的解答,就你的最靠谱了

我理解一下
就是一种算法的直接实现把?
CPU是先把算法分解成基础的+-x/在一步一步计算,
NPU就类似专用DSP直接对数据进行特殊算法计算。
发表于 2023-12-20 09:19 | 显示全部楼层
npu这种东西不是应该从A11开始就有了吗 也就是2018年 到现在5年了 可以盖棺定论了
发表于 2023-12-20 09:26 来自手机 | 显示全部楼层
tengyun 发表于 2023-12-19 23:37
是不是能这么理解
就是个残血版CPU(只保留某几个计算模式) 那其实早期的GPU 不就是现在的NPU 一个路数嘛 ...

不是残血CPU,应该说成是有巨量ALU的CPU。
发表于 2023-12-20 10:01 来自手机 | 显示全部楼层
矩阵运算,优势是功耗低
发表于 2023-12-20 10:11 | 显示全部楼层
是不是可以看成专门运行特定宏的硬件?
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-29 01:07 , Processed in 0.013827 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表