找回密码
 加入我们
搜索
      
楼主: QYE

[CPU] 未来的CPU,有无AI(NPU)是区别新旧时代的分水岭么?

[复制链接]
发表于 2024-3-5 09:33 | 显示全部楼层
ttsammammb 发表于 2024-3-5 09:26
轻度ai的话,uhd630也能跑

14nm那個算力太慘了,還不如12代CPU直接上好了

Ultra的NPU int8不過15TOPS...
发表于 2024-3-5 09:45 | 显示全部楼层
个人愚见,现在的AI是资本市场炒作的风口,真AI还没来,人类量子计算机才摸到边,怎么有脸说自己开发了AI
发表于 2024-3-5 09:46 | 显示全部楼层
本帖最后由 tengyun 于 2024-3-5 09:47 编辑

看win11需求吧

据说现在低于50t ai算力的  对于电子垃圾。不妨等等党等到win11(win12) 这个ai相关版本正式上线
发表于 2024-3-5 10:27 | 显示全部楼层
jxljk 发表于 2024-3-4 23:18
不是压对宝了 而是老黄属于技术狂人  牙膏和农企属于不思进取  牙膏才换上技术ceo 开始狂抄移动端的异构 ...

确实,像老黄这种几十年如一日踏实专注技术的ceo真罕见
发表于 2024-3-5 10:30 | 显示全部楼层
用户 发表于 2024-3-5 01:44
别急,你先退一步,问问集显时代,有没有集显是不是cpu的分水岭

挺多时候集显太卡没法用了,cpu还没淘汰。 ...

这东西消耗内存带宽,独立的话,可能要自带内存。
当然,独立后,有利于国产,毕竟这东西实现起来比gpu简单一点
发表于 2024-3-5 10:37 | 显示全部楼层
不是 等真正的硬件AI跟上来 这些也都不能用了全是弟弟
发表于 2024-3-5 10:40 | 显示全部楼层
AI算力不都在云端吗? 本地化真的有市场?
发表于 2024-3-5 10:49 | 显示全部楼层
没有意义,npu不是光有芯片就行的,有大量的基础软件需要开发,大量的应用需要适配。
从这个角度看,假如我是应用程序员,我有一个轻量ai加速模型需要部署(重量级的npu和cpu都搞不定,需要上n卡),优先cpu,然后是au的npu(rocm不完善但好过没有),根本不考虑iu的npu
发表于 2024-3-5 10:54 | 显示全部楼层
为了保持售价和利润炒作而已,就本地那点算力够干啥的
你看看手机都有了多长时间了,有什么本质上的变化么
真正能做到影视作品里面那种拟人化的AI还早呢,现在都是炒作,就跟前几年的元宇宙一样
发表于 2024-3-5 10:54 | 显示全部楼层
颠覆性的通用应用出来,然后对算力的要求到达一定的水平,我认为这才是分水岭
发表于 2024-3-5 11:03 | 显示全部楼层
个人觉得不是,CPU里整合其他的控制器来来回回那么多,合久必分分久必合
AI这个玩意儿堆小了是电阻丝,堆多了还不如单独出来变成协处理器
移动端应该会大小核+AI核搞下去
办公PC估计也是这个路数
工作站、服务器啥的还是全大核,配独显来得实在

且看移动端SoC发展历程,天玑9000可以算是全大核设计了,只要架构、制程牛,纯靠大核的能耗表现也比大中小核要好,所以还是让子弹飞一飞
发表于 2024-3-5 11:03 | 显示全部楼层
inference的瓶颈从来都不在算力上。小模型不吃算力,吃算力的大模型主流内存/显存放不下。
恕我直言,所有能在个人设备上inference的小模型,和各个领域的SOTA比都是垃圾。
发表于 2024-3-5 11:04 | 显示全部楼层
NPU来解决大核核能效核切换么 现在系统那么傻
路由上还能处理信号
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-30 19:21 , Processed in 0.010365 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表