Chiphell - 分享与交流用户体验

标题: AI PC YES! AMD展示Ryzen AI PC [打印本页]

作者: 威尼斯睡裤    时间: 2024-2-21 12:03
标题: AI PC YES! AMD展示Ryzen AI PC
本帖最后由 威尼斯睡裤 于 2024-3-22 13:21 编辑

AI PC YES!AMD举办AI PC创新峰会,展示Ryzen AI PC强大生态系统


AMD董事会主席及首席执行官Lisa Su博士表示:“人工智能正在推动一场革命,迅速重塑科技行业的方方面面。从数据中心到AI PC和边缘计算,我们对这个全新计算时代的机遇感到兴奋。PC是用户每天通过真正个性化的体验与AI互动的工具。我们Ryzen AI的行业领先能力和广泛的生态系统合作伙伴将实现从云到PC的无缝AI体验。”

AMD高级副总裁、GPU技术与工程研发王启尚对AMD的AI技术发展进行了详尽的介绍说明,目前AMD拥有不同的架构产品去解决AI的不同需求,包括面向通用处理和AI推理的Zen架构CPU;面向HPC、AI训练和密集推理的CDNA架构GPU;面向游戏和基于AI的内容开发的RDNA架构GPU;以及面向低功耗和一直在线的AI推理的XDNA架构,即NPU。

最先的锐龙8040系列拥有“Zen 4”、AMD RDNA 3和AMD XDNA架构,提供高达16TOPS的NPU算力和高达39TOPS的整体算力,带来专用的AI性能、强大的隐私和安全功能、高能效以及低成本的AI应用。

此外他还提到了,下一代AMD XDNA架构设计旨在将NPU计算和代际的AI TOP算力性能翻三倍。

AMD高级副总裁,计算与图形总经理Jack Huynh 表示:“为了实现广泛的新兴AI体验,我们正在推动芯片之外的创新,包括一个开放的端到端的软件生态系统,使我们的ISV合作伙伴能够利用数千个AI模型。到2024年底,我们正按计划推动超过150个ISV为Ryzen AI进行开发,其中包括许多中国领先的软件提供商

最后AMD高级副总裁、大中华区总裁潘晓明主持了中国AI生态伙伴论坛,在活动上始智AI、百川智能、有道、游戏加加、生数与另外30多家ISV合作伙伴在会上展示了AMD AI PC体验。AMD还展示了来自通义千问、智谱·AI、无问芯穹、元始智能、面壁智能等合作伙伴的端侧中文大语言模型。


Intel版
https://www.intel.com/content/ww ... t-is-an-ai-pc.html?


作者: 威尼斯睡裤    时间: 2024-2-21 12:05
本帖最后由 威尼斯睡裤 于 2024-3-22 13:21 编辑

AI PC 再临!
作者: ren者    时间: 2024-2-21 12:07
感觉没啥用   和3D 5G 智能音箱一样
作者: 星辰柯博文    时间: 2024-2-21 12:20
大小核就够乱了,再加一个AI核。
作者: xsdianeht    时间: 2024-2-21 12:29
和当年的解霸卡、2d加速卡差不多注定被淘汰的玩意
作者: af_x_if    时间: 2024-2-21 12:34
星辰柯博文 发表于 2024-2-21 12:20
大小核就够乱了,再加一个AI核。

ai核是真不会添乱的,跟视频硬解核一样不添乱,它能也只能干规定的工作,不存在调度一说。
作者: af_x_if    时间: 2024-2-21 12:38
xsdianeht 发表于 2024-2-21 12:29
和当年的解霸卡、2d加速卡差不多注定被淘汰的玩意

这些并没有消失而是被集成了。
而英特尔炒的这一波npu就是集成的

这些完全就不值得大惊小怪,手机soc标配ai加速多久了,手机玩ai抠图多久了。
作者: netjunegg    时间: 2024-2-21 12:41
这东西第一是生态,第二是性能,intel现在两个都不行

目前等于玩具
作者: Darylyexu    时间: 2024-2-21 13:03
三年开机三秒死机 aipc
作者: xjr12000    时间: 2024-2-21 13:38
所谓ai pc,本质就是intel不甘心被时代抛弃,蹭流量,蹭热度,抢活干
眼看独立显卡卖不上价,于是,强行搭售,捆绑销售,
天下大势,分久必合,合久必分,显然,现在要往分走,你那么点大地方,现在都400瓦了,给你做成电磁炉,换成1080水冷吗?
作者: jxljk    时间: 2024-2-21 13:44
芯片行业也卷
作者: PolyMorph    时间: 2024-2-21 14:02
本帖最后由 PolyMorph 于 2024-2-21 14:04 编辑

别调侃Intel了,zen5延迟发布就是等win12 ai
作者: Doomslang    时间: 2024-2-21 14:08
这就纠集起来对抗NV的连联盟都算不上团伙
作者: arbicool    时间: 2024-2-21 14:13
Doomslang 发表于 2024-2-21 14:08
这就纠集起来对抗NV的连联盟都算不上团伙

你是不是不知道裝了RTX20之後的獨立顯示的PC也算是這個團伙?
作者: Sirlion    时间: 2024-2-21 14:26
aipc是b站老梗了
作者: 赫敏    时间: 2024-2-21 14:56
软件跟不上。PC上的日常软件比手机上落后太多了,一堆菜单和不知道谁会用的功能让人浪费时间
作者: kzfile    时间: 2024-2-21 15:00
放大放大再放大,每一根毛都看得清清楚楚
作者: idboyang    时间: 2024-2-21 15:03
目前看是为了卖点增加的噱头
作者: weindy    时间: 2024-2-21 15:05
在本坛,喷厂商新尝试都是作死已经是zzzq了天天说手机app领先pc百万年的,难道这些app都是拿手机开发出来的么
作者: hunterccnu    时间: 2024-2-21 15:15
还是要看有多少APP能支持
作者: 我輩樹である    时间: 2024-2-21 15:32
定制的处理器比gpgpu更加高效。

可以跑400 t/s的LPU(Language Processing Units)和1070的die shot对比:

(, 下载次数: 46)
作者: JDFY    时间: 2024-2-21 15:51
ai pc 就是用上了英伟达显卡的pc 其他都是扯淡。ai 已经出来这么多年了 还不明白?
作者: PPXG    时间: 2024-2-21 15:54
xsdianeht 发表于 2024-2-21 12:29
和当年的解霸卡、2d加速卡差不多注定被淘汰的玩意

你说的这两个东西早就作为现代GPU的一部分被集成进去了,你要说牙膏厂莫名其妙弄了个PCIE的NPU加速卡,被集成式NPU淘汰还差不多。
作者: fairness    时间: 2024-2-21 16:20
xjr12000 发表于 2024-2-21 13:38
所谓ai pc,本质就是intel不甘心被时代抛弃,蹭流量,蹭热度,抢活干
眼看独立显卡卖不上价,于是,强行搭 ...

当年Intel的机会多的是,地位也高; 至少打压了N,A两家数十年。

我记得14-15年的时候,老黄送钱以反垄断要求Intel的平台必须保留PCIE接口,至少10年。
作者: fairness    时间: 2024-2-21 16:27
我輩樹である 发表于 2024-2-21 15:32
定制的处理器比gpgpu更加高效。

可以跑400 t/s的LPU(Language Processing Units)和1070的die shot对比: ...

此芯片支持的内存多大,可以支持多大的模型; 我看到的新闻测频都是用70B的模型,给出的数据都是芯片内的SRAM 260M, 内存带宽80Tbps.  (对比HBM3的GH100, 大概5Tbps的内存带宽)  ; 完全没有提外接的内存格式和大小。

但如果模型规模大了,装不下, 分布处理下性能下降多少?


做架构的都知道,做到后面是平衡balance, 做选择;  既要有要的好主意,已经被前人或者大家都用上了;   对于只给出擅长领域的特定成绩 ---- 把春秋笔法引入IT圈。
作者: 我輩樹である    时间: 2024-2-21 18:47
fairness 发表于 2024-2-21 16:27
此芯片支持的内存多大,可以支持多大的模型; 我看到的新闻测频都是用70B的模型,给出的数据都是芯片内的 ...

这个不是春秋笔法。这贴既然说的npu,事实上就是做那几件生成系算法推理的事情,之前是用gpgpu的架构兼用,gpgpu架构已经够简单了,但还不够简单,仍然不是纯粹的吞吐量架构。既然是专门跑生成系算法的推理,就应该用专门的架构,处理器里的npu也是类似的。

用现在流行的一句话,不是dGPU跑不了,是专用架构更有性价比。

我不认识做硬件构架的人,不知道他们都知道的事情,见谅。
作者: cst4you    时间: 2024-2-21 19:04
本帖最后由 cst4you 于 2024-2-21 19:09 编辑

https://www.bilibili.com/video/BV1gs411f7iu/
你找我?

见谅只是突然想到这个, 当年脑被洗得太厉害了哈哈哈哈哈
作者: YoshinoSakura    时间: 2024-2-21 21:13
AIPC,这玩意不是很多年前就出来了,1699来着?
作者: YsHaNg    时间: 2024-2-21 21:28
我輩樹である 发表于 2024-2-21 07:32
定制的处理器比gpgpu更加高效。

可以跑400 t/s的LPU(Language Processing Units)和1070的die shot对比: ...

今天早上还在和老板讨论这个东西 floorplan做的真漂亮 什么时候Google tpu不用再被博通卡脖子了这组人才能发挥作用
作者: LocaVoiD    时间: 2024-2-21 21:32
营销角度用户觉得狼来了也正常,因为狼来了太多次了,还记得大明湖畔的VR吗?当年笔记本不加个VR Ready在Spec里都难受。微星更是弄出了一大堆的GT83VR之类的玩意,也就是硬件换代快,要不然现在看着这些名字都是十足的笑话。
作者: 威尼斯睡裤    时间: 2024-2-22 08:38
cst4you 发表于 2024-2-21 19:04
你找我?

见谅只是突然想到这个, 当年脑被洗得太厉害了哈哈哈哈哈

玩梗可以理解, 但在一个geek 论坛里反复玩烂梗就显得不合时宜了.
东北有句话叫: 得个屁嚼不烂
作者: 威尼斯睡裤    时间: 2024-2-22 08:40
赫敏 发表于 2024-2-21 14:56
软件跟不上。PC上的日常软件比手机上落后太多了,一堆菜单和不知道谁会用的功能让人浪费时间 ...

正是因为软件跟不上, 才需要硬件打好基础, 产业大哥出钱出力推动大家进化
所以英特尔愿意利用自己的影响力, 出钱出资源带动行业发展
作者: 威尼斯睡裤    时间: 2024-2-22 08:46
我輩樹である 发表于 2024-2-21 18:47
这个不是春秋笔法。这贴既然说的npu,事实上就是做那几件生成系算法推理的事情,之前是用gpgpu的架构兼用 ...

这贴到并不是只说NPU, 第一个提问的第一句话就点明了, 在Intel的定义里CPU GPU NPU都是AI PC的一部分.
这也侧面解释为啥Intel要大幅提升MTL的集显能力, 并加入了AI workload智能调度功能.

简化OS和软件的烦恼, 让CPU GPU NPU都跑到自己最合适的workload才是理想的正道.
对于硬件来说, 就是不做选择题, 全都要.
作者: 威尼斯睡裤    时间: 2024-2-22 08:50
LocaVoiD 发表于 2024-2-21 21:32
营销角度用户觉得狼来了也正常,因为狼来了太多次了,还记得大明湖畔的VR吗?当年笔记本不加个VR Ready在Sp ...

能理解大家对新噱头的厌恶
但是相对于VR来说, AI PC已经是实实在在落地的东西.

而且看看微软的规划, 直接要在键盘上加入一个新的copilot 键, 如同当年新加Win键一样.
由此可知, AI PC已经是板上钉钉的事情, 始作俑者其实也并不是Intel.
作者: 威尼斯睡裤    时间: 2024-2-22 08:55
PPXG 发表于 2024-2-21 15:54
你说的这两个东西早就作为现代GPU的一部分被集成进去了,你要说牙膏厂莫名其妙弄了个PCIE的NPU加速卡,被 ...

弄PCIe NPU加速卡这个其实背后有故事的

首先要知道一点, 所谓Wintel 联盟早就不存在了, 两个不平等的势力有何联盟可言. 只有单方面抱大腿罢了.

其次微软自顾自的给AI OS定了一个算力标准, Intel暂时达不到, 不得不想各种办法曲线救国.
作者: 我輩樹である    时间: 2024-2-22 11:22
YsHaNg 发表于 2024-2-21 21:28
今天早上还在和老板讨论这个东西 floorplan做的真漂亮 什么时候Google tpu不用再被博通卡脖子了这组人才 ...

一种让软件工程师设计硬件的美。
作者: fairness    时间: 2024-2-22 11:54
我輩樹である 发表于 2024-2-21 18:47
这个不是春秋笔法。这贴既然说的npu,事实上就是做那几件生成系算法推理的事情,之前是用gpgpu的架构兼用 ...

我只是提出了自己的理解,没有什么指责的意思; 而且对于一个起步的公司,强调自己优势的一方面也是正常。

通用 vs 专用 肯定是各有优缺点的, 再说现在用于专业市场的GPU一直再演化,也不完全和我们理解的显卡GPU一摸一样了。

BTW: 大牛你是做什么的?
作者: 赫敏    时间: 2024-2-22 11:56
威尼斯睡裤 发表于 2024-2-21 19:40
正是因为软件跟不上, 才需要硬件打好基础, 产业大哥出钱出力推动大家进化
所以英特尔愿意利用自己的影响 ...

没说不应该,应该,而且早就应该
作者: fairness    时间: 2024-2-22 11:56
YsHaNg 发表于 2024-2-21 21:28
今天早上还在和老板讨论这个东西 floorplan做的真漂亮 什么时候Google tpu不用再被博通卡脖子了这组人才 ...

TPU被博通卡脖子的地方,好像是IO有关的Serdes IP;  这部分和小芯片的互联(Scale Up)很关键;   
但这个IP,也是当年LSI旗下的一个团队做的很好,一直做下去; 最后被AVOGO/博通收购了。
作者: 我輩樹である    时间: 2024-2-22 12:30
fairness 发表于 2024-2-22 11:54
我只是提出了自己的理解,没有什么指责的意思; 而且对于一个起步的公司,强调自己优势的一方面也是正常 ...

通用计算的平台,按照现在的理解是属于工业母床,x86和nvidia的处理器就是这个范畴。在它们上面开发调试代码(换到ai场景就是训练调优模型),然后部署到边或者端的时候就可以使用特别设计的处理器运行,因为它们拥有降维的功耗性能比。而且在消费场景使用工业母床来运行不太符合工业化的流程。

手机是这样的,电脑也会这样。它们没有高低贵贱之分,都属于个人终端范畴。

我的研究领域是做大数据情感分析的,目前也是llm助攻的范畴。
作者: fairness    时间: 2024-2-22 15:00
我輩樹である 发表于 2024-2-22 12:30
通用计算的平台,按照现在的理解是属于工业母床,x86和nvidia的处理器就是这个范畴。在它们上面开发调试 ...

有道理!
作者: kingofgu    时间: 2024-2-22 16:44
我輩樹である 发表于 2024-2-21 15:32
定制的处理器比gpgpu更加高效。

可以跑400 t/s的LPU(Language Processing Units)和1070的die shot对比: ...

把训练好的所以参数全部换算成折射率做成光路迷宫,激光器输入,光敏ADC做输出,可以做到几乎零功耗的超高频推理,
但是谁敢说我模型就参数固化到不变了?
作者: YsHaNg    时间: 2024-2-22 18:57
kingofgu 发表于 2024-2-22 08:44
把训练好的所以参数全部换算成折射率做成光路迷宫,激光器输入,光敏ADC做输出,可以做到几乎零功耗的超 ...

做过光卷积芯片 不成功 性能功耗发热没法都解决
作者: 威尼斯睡裤    时间: 2024-3-22 13:24

虽晚但到
作者: zhuifeng88    时间: 2024-3-22 13:31
fairness 发表于 2024-2-21 16:27
此芯片支持的内存多大,可以支持多大的模型; 我看到的新闻测频都是用70B的模型,给出的数据都是芯片内的 ...

没有外接内存, 只靠片内sram, 400t/s的指标是9个机柜总共576片这玩意跑出来的
作者: zhuifeng88    时间: 2024-3-22 13:38
本帖最后由 zhuifeng88 于 2024-3-22 13:47 编辑
我輩樹である 发表于 2024-2-21 15:32
定制的处理器比gpgpu更加高效。

可以跑400 t/s的LPU(Language Processing Units)和1070的die shot对比: ...


这玩意400t/s per user是9个机柜总共576片加起来跑的, 一片这玩意什么都跑不了....

相比h100优势是latency optimize前提下的per user thgoughput

如果是throughput optimize的话h100的成本远比这玩意低

(, 下载次数: 61)

(, 下载次数: 50)
作者: 我輩樹である    时间: 2024-3-22 14:31
zhuifeng88 发表于 2024-3-22 13:38
这玩意400t/s per user是9个机柜总共576片加起来跑的, 一片这玩意什么都跑不了....

相比h100优势是laten ...

没什么奇怪的,这个芯片就是推理芯片,当然是低延迟重要,高通性主要用在训练环节。

这也体现在它的专用上。现在是大语言模型研发转落地的关键时刻,推出专用推理芯片是抢占这个市场。
作者: 我輩樹である    时间: 2024-3-22 14:33
本帖最后由 我輩樹である 于 2024-3-22 14:36 编辑
kingofgu 发表于 2024-2-22 16:44
把训练好的所以参数全部换算成折射率做成光路迷宫,激光器输入,光敏ADC做输出,可以做到几乎零功耗的超 ...


只要能有足够利润,把所有参数在光 刻阶段写死也不是不可能。
作者: JDFY    时间: 2024-3-22 14:36
AI PC ,没见过比这个更智障的概念。
作者: SF8F    时间: 2024-3-22 16:39
不是我说啊,你们家的显卡怎样了
作者: 远洋放逐    时间: 2024-3-22 17:05
还是看看旧的东西吧
新技术不能说不好 只是第一代技术我是不想碰了
第二代乃至第三代 再考虑
作者: netfx    时间: 2024-3-23 01:17
生成式AI的生态差不多已经被CUDA统治了。AMD拿什么来对抗CUDA呢?
作者: atiufo    时间: 2024-3-23 09:01
你也是内置了病毒的AIPC




欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) Powered by Discuz! X3.5