OpenAI将很快完成内部AI芯片设计 目标2026年量产,采用台积电3nm工艺制造
本帖最后由 mnak888 于 2025-2-14 11:15 编辑2023年初,由人工智能研究实验室OpenAI开发的Chat**引起了无数网友关注,一度成为了热门话题,也掀开了新一轮的人工智能(AI)浪潮。OpenAI先后投资了数十亿美元,利用英伟达最新的计算卡,以满足处理训练和扩展AI所需的巨大计算负载。另一方面,传出OpenAI正在开发自己的AI芯片,希望可以更高效、更低成本地适配其开发的大型语言模型(LLM),满足未来算力的需求。
据TrendForce报道,OpenAI将在未来几个月内完成其第一款内部AI芯片的设计,朝着减少对英伟达的依赖迈出关键一步。其目标是2026年量产,预计很快会送去台积电(TSMC)进行试产,采用3nm工艺制造。
传闻OpenAI的首款AI芯片虽然能够训练和运行模型,但最初的作用有限,不过一定程度上也是制衡英伟达影响力的战略举措。OpenAI的硬件团队由前谷歌芯片专家Richard Ho领导,成员数量已经翻了一番,达到了40人。与此同时,OpenAI还选择与博通合作,引入定制设计。
OpenAI当然不是唯一一间开发内部AI芯片的科技公司,像微软和谷歌过去多年里也是一直这么做的。有报告称,尽管DeepSeek的突破引发了人们对未来芯片需求的怀疑,但飙升的成本和对英伟达的过度依赖正在推动包括OpenAI在内的科技公司寻求替代方案。
新闻来源 https://www.expreview.com/98206.html 标题丢了一个字母O 40人就能研发出3nm制程芯片??? 348495990 发表于 2025-2-13 11:45
40人就能研发出3nm制程芯片???
AI芯片相对cpu简单太多了,正常 348495990 发表于 2025-2-14 00:45
40人就能研发出3nm制程芯片???
估计难度跟矿机差不多的东西,把现成的算法固化 fenytk 发表于 2025-2-13 14:39
估计难度跟矿机差不多的东西,把现成的算法固化
可能比矿机都还更简单。。。。 标题我以为又冒出一个penAI的初创公司 干死英伟达[偷笑] 这算不算专业矿机? 既然40个人,就有搞出比GB200 还强的芯片?
哪我们还怕啥 libfire2002 发表于 2025-2-14 09:46
既然40个人,就有搞出比GB200 还强的芯片?
哪我们还怕啥
推理芯片而已,不要想太多 libfire2002 发表于 2025-2-13 20:46
既然40个人,就有搞出比GB200 还强的芯片?
哪我们还怕啥
跟黄卡没法比,差太远了 CloseAI 完颜哒哒迩 发表于 2025-2-14 18:58
CloseAI
掉个字母就惨了,loseAI 股沟的TPU整了那么多年,不还是一样在抢黄卡
多卡互联和高带宽目前就是显卡厂弄的最好,老黄还多个生态优势 核心竞争力是CUDA, openai有没有 AI 引领世界未来期待 赫敏 发表于 2025-2-14 06:52
可能比矿机都还更简单。。。。
按FP8做,相当于一堆8bit单片机集合?[偷笑] 348495990 发表于 2025-2-14 00:45
40人就能研发出3nm制程芯片???
传闻OpenAI的首款AI芯片虽然能够训练和运行模型,但最初的作用有限
估计又是asic这种 openai只是看起来40人,其实一堆公司围绕他们做配套。
运行模型并不一定是cuda,还有就是这样的芯片并不如手机芯片那么复杂。 libfire2002 发表于 2025-2-14 09:46
既然40个人,就有搞出比GB200 还强的芯片?
哪我们还怕啥
我们缺的是3nm**机,不是芯片设计。 LLM模型对于硬件的使用可以分为两方面,一是训练、二是推理。随着Scaling Law逐渐触及瓶颈,意味对于训练用硬件的需求将减缓,另一边,模型使用范围的增加,推理用硬件的需求将成指数级增加。
CUDA生态的最大意义在于能够快速搭建训练平台,实验训练效果,即CUDA生态最强的方面在于训练。考虑到Nvidia显卡居高不下的售价,显然在推理端使用CUDA生态是巨大的浪费,所以我预计各大AI巨头将从推理端开始,逐渐替换Nvidia显卡。
如果Nvidia降价是否可行,这可能要考虑AI的盈利模式,个人认为线上服务很难收回成本,那么进行软硬件捆绑销售就是一种必然会考虑的模式,未来头部的AI模型商会出售专门针对自家模型优化推理速度的硬件。
页:
[1]