找回密码
 加入我们
搜索
      
查看: 9661|回复: 18

[其他] 灵感来源大脑,IBM展示非冯·诺依曼架构AI芯片NorthPole初步成果,主打超高能效与效率

[复制链接]
发表于 2023-10-23 22:35 | 显示全部楼层 |阅读模式
本帖最后由 埃律西昂 于 2023-10-23 22:37 编辑



来源: IBM官网
原文标题: A new chip architecture points to faster, more energy-efficient AI



我们正处于人工智能的“寒武纪大爆发”时期。在过去的十年中,人工智能已经从理论和小型测试发展到企业规模的使用案例。但是,用于运行人工智能系统的硬件虽然越来越强大,但在设计时却没有考虑到当今的人工智能。随着人工智能系统规模的扩大,成本也随之飙升。而摩尔定律,即处理器电路密度每年翻一番的理论,已经放缓。

但是,位于加利福尼亚州阿尔马登的 IBM 研究实验室经过近二十年的努力,终于完成了一项新的研究,它有可能彻底改变我们如何高效地扩展强大的人工智能硬件系统。

自半导体工业诞生以来,计算机芯片主要遵循相同的基本结构,即处理单元和存储待处理信息的内存是离散存储的。虽然这种结构使得设计更加简单,几十年来一直能够很好地扩展,但它也造成了所谓的冯-诺依曼瓶颈,即在内存、处理单元和芯片内的任何其他设备之间不断地来回切换数据都需要时间和能量。IBM 研究院的达曼德拉-莫德哈(Dharmendra Modha)和他的同事们从大脑的计算方式中汲取灵感,旨在改变这种状况。"莫德哈说:"它开辟了一条与冯-诺依曼架构完全不同的道路"。

过去八年来,Modha 一直在研究一种用于神经推理的新型数字人工智能芯片,这就是 NorthPole。它是 Modha在2014年开发的类脑芯片 TrueNorth 的延伸。在对流行的 ResNet-50 图像识别和 YOLOv4 物体检测模型的测试中,新的原型设备比目前市场上的任何其他芯片都表现出更高的能效、更高的空间效率和更低的延迟,速度大约是 TrueNorth 的 4000 倍。

NorthPole 芯片取得的第一批令人鼓舞的成果发表在今天的《科学》杂志上。Modha表示,NorthPole是芯片架构的一个突破,它在能源、空间和时间效率方面都有巨大的改进。以ResNet-50模型为基准,NorthPole的效率大大高于普通的12纳米GPU和14纳米CPU。(在这两种情况下,NorthPole 的能效是普通 12nm GPU 和 14nm CPU 的 25 倍(NorthPole 本身就是基于 12nm 节点处理技术构建的)。就每十亿个晶体管每秒所需的解释帧数而言,NorthPole 在延迟和计算所需空间方面也更胜一筹。根据 Modha 的说法,在 ResNet-50 上,NorthPole 的性能优于所有主流架构,甚至优于那些使用更先进技术工艺的架构,例如使用 4nm 工艺实现的 GPU。

它是如何做到比现有芯片的计算效率如此之高的呢?NorthPole 最大的不同之处在于,设备的所有内存都在芯片上,而不是单独连接。没有了冯-诺依曼瓶颈,该芯片进行人工智能推理的速度大大快于市场上的其他芯片。NorthPole 采用 12 纳米节点工艺制造,在 800 平方毫米内包含 220 亿个晶体管。它有 256 个内核,在 8 位精度下,每个内核每个周期可执行 2,048 次运算,在 4 位和 2 位精度下,运算次数有可能分别增加一倍和四倍。"Modha说:"这是一个芯片上的整体网络。



Modha说:"从架构上讲,NorthPole模糊了计算与内存之间的界限。"在单个内核层面,NorthPole表现为接近计算的内存,而在芯片外部,在输入输出层面,它表现为活动内存。这使得 NorthPole 很容易集成到系统中,并大大减轻了主机的负担。

但是,NorthPole 的最大优势同时也是一种限制:它只能轻松地从板载内存中提取数据。如果必须从其他地方获取信息,芯片上可能实现的所有加速都会被削弱。通过一种称为 "扩展"(scale-out)的方法,NorthPole 可以将更大的神经网络分解成适合 NorthPole 模型内存的更小的子网络,并将这些子网络连接到多个 NorthPole 芯片上,从而支持更大的神经网络。因此,虽然一个 NorthPole(或一组 NorthPole 的总和)上有充足的内存,可用于许多对特定应用有用的模型,但这种芯片并不是万能的。"Modha 说:"我们不能在上面运行 **-4,但我们可以为企业需要的许多模型提供服务。"当然,NorthPole 也只能用于推理。

这种功效意味着该设备也不需要笨重的液冷系统来运行--风扇和散热片就足够了--也就是说它可以部署在一些相当狭小的空间里。

NorthPole 的潜在应用
尽管对 NorthPole 芯片的研究仍在进行中,但其结构适合新兴的人工智能用例以及更成熟的用例。

在测试过程中,NorthPole 团队主要关注与计算机视觉相关的应用,部分原因是该项目的资金来自美国国防部。考虑的一些主要应用包括检测、图像分割和视频分类。但它也在其他领域进行了测试,如自然语言处理(在仅编码器的 BERT 模型上)和语音识别(在 DeepSpeech2 模型上)。该团队目前正在探索将纯解码器大型语言模型映射到 NorthPole 扩展系统。

一想到这些人工智能任务,各种天马行空的用例就会涌上心头,从自动驾驶汽车到机器人、数字助理或空间计算。许多需要实时处理大量数据的边缘应用都非常适合 NorthPole。例如,NorthPole 有可能成为将自动驾驶汽车从需要设定地图和路线才能在小范围内运行的机器,转变为能够对罕见的边缘情况进行思考并做出反应的设备。这些边缘情况正是 NorthPole 未来应用的甜蜜点。NorthPole 可使卫星监控农业和管理野生动物种群,监控车辆和货运以减少道路拥堵,安全操作机器人,以及检测网络威胁以确保企业安全。

下一步工作
这只是 Modha 在 NorthPole 上工作的开始。目前最先进的中央处理器是 3 纳米,而 IBM 本身已经在 2 纳米节点上进行了多年的研究。这意味着,除了基本的架构创新外,NorthPole 还可以在几代芯片处理技术上实现,从而不断提高效率和性能。


NorthPole大部分成员合照,中为Modha

但对 Modha 来说,这只是他过去 19 年职业生涯中的一个重要里程碑。在这段时间里,他一直在研究受大脑启发的数字芯片,他知道大脑是我们已知的最节能的处理器,并一直在寻找以数字方式复制大脑的方法。TrueNorth 的灵感完全来源于大脑中的神经元结构--其中的数字 "突触 "就像蜜蜂的大脑一样多。但 2015 年, Modha 坐在旧金山一个公园的长椅上,说他正在思考自己迄今为止的工作。他相信,将传统处理设备的精华与大脑的处理结构结合在一起,一定会有所收获,因为大脑中的记忆和处理都是穿插进行的。莫德哈认为,答案就是 "大脑启发的计算,但具有硅片的速度"。

在接下来的八年里, Modha 和他的同事们一心一意、密不透风地致力于将这一愿景变为现实。他们在阿尔马登默默无闻地工作着,直到今年,他们才就自己的工作发表过任何演讲或论文。每个人都带来了不同的技能和观点,但每个人都通力合作,因此团队的整体贡献远远大于各部分的总和。现在,我们的计划是展示 NorthPole 的能力,同时探索如何将设计转化为更小的芯片生产流程,并进一步探索架构的可能性。

这项工作源于一个简单的想法--我们如何才能制造出像大脑一样工作的计算机--经过多年的基础研究,我们终于找到了答案。如今,只有在 IBM 研究院这样的地方才有可能实现这一目标,因为这里有足够的时间和空间来探索计算领域的重大问题,以及这些问题会将我们带向何方。"NorthPole是大脑在硅片镜面上的微弱呈现。

评分

参与人数 1邪恶指数 +20 收起 理由
灯下狐 + 20

查看全部评分

发表于 2023-10-23 23:07 | 显示全部楼层
刚开始的时候这个名字里可不带AI
发表于 2023-10-23 23:37 | 显示全部楼层
这就是传说中的存算一体么?
发表于 2023-10-24 02:54 | 显示全部楼层
这种AI运算器最大的问题是无法普及到一线的开发人员和学生没有应用生态
老黄在AI领域大赢特赢归根结底还是卡好买加上CUDA生态搞得早
发表于 2023-10-24 03:54 | 显示全部楼层
神经计算,量子计算看来都有个能算不能存的问题。计算速度快,但对大量外界输入响应非常慢。
发表于 2023-10-24 07:25 | 显示全部楼层
据说这个不禁
发表于 2023-10-24 07:30 | 显示全部楼层
以前工作的一个事业单位,有一位同事得了大脑胶质瘤,在武汉住院一年就走了,当时单位组织员工去医院探望,我记得有位主任大夫说过,目前人类科技研究中,最最难的一个项目,是大脑
发表于 2023-10-24 08:22 | 显示全部楼层
这一波“革命”刚开始是facebook带节奏、后来被google接盘,现在chat**背后是微软和NV,这些大佬会不会被蓝色巨人一波带走呢。真期望呀!我的征程如星辰大海。。。
发表于 2023-10-24 09:11 | 显示全部楼层
zcyandrew 发表于 2023-10-24 02:54
这种AI运算器最大的问题是无法普及到一线的开发人员和学生没有应用生态
老黄在AI领域大赢特赢归根结底还是 ...

文章里说的是跑不了大语言模型,目前只适合几种特定的模型。。。老黄大赢特赢的原因是早早布局GPU的通用计算,甚至为此不惜牺牲图像处理性能,然后才有的现在科研人员基本全都用他家GPU来尝试各种新模型的局面。。。
发表于 2023-10-24 09:13 | 显示全部楼层
不明觉厉~~~~
发表于 2023-10-24 09:35 | 显示全部楼层
NorthPole 最大的不同之处在于,设备的所有内存都在芯片上,而不是单独连接。


所以,实际上不还是要内置内存(cache)么
发表于 2023-10-24 13:37 | 显示全部楼层
AI全名,人工智障缩写也叫AI
发表于 2023-10-24 17:01 | 显示全部楼层
他在拥有 147,456 个处理器的 BlueGene/P 超级计算机上进行了猫大脑皮层规模(10 亿个神经元、10 万亿个突触)的皮层模拟,速度仅比实时速度慢 100 倍。这项工作获得了 ACM 的戈登贝尔奖。

印度人。这个是完全模拟大脑啊,这样才能可以以较低的能耗在边缘部署。
发表于 2023-10-24 17:32 | 显示全部楼层
说实话
ibm乱点科技树样子还挺帅的
说不定哪个项目就能开天辟地那种
发表于 2023-10-24 19:51 | 显示全部楼层
12纳米,希望国内团队加油,有人帮忙验证说明这条路可走。
发表于 2023-10-26 11:52 | 显示全部楼层
从PC诞生以来,感觉IBM一直在不断砍自己的各种业务。这么多年断胳膊断腿的过来,IBM居然还一直有钱烧各种各样的奇怪玩意儿,我辈也是非常服气的。
发表于 2023-10-26 12:35 | 显示全部楼层
aibo 发表于 2023-10-24 09:35
所以,实际上不还是要内置内存(cache)么

jim keller说内存片越多,等效带宽越高
发表于 2023-10-27 19:48 | 显示全部楼层
zcyandrew 发表于 2023-10-24 02:54
这种AI运算器最大的问题是无法普及到一线的开发人员和学生没有应用生态
老黄在AI领域大赢特赢归根结底还是 ...

老黄 的通用性无敌。。。。。
发表于 2023-10-30 08:50 | 显示全部楼层
zcyandrew 发表于 2023-10-24 02:54
这种AI运算器最大的问题是无法普及到一线的开发人员和学生没有应用生态
老黄在AI领域大赢特赢归根结底还是 ...

一个新的生态建立可能只需要一纸禁令
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-26 17:43 , Processed in 0.017949 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表