mnak888 发表于 2025-2-13 22:44

OpenAI将很快完成内部AI芯片设计 目标2026年量产,采用台积电3nm工艺制造

本帖最后由 mnak888 于 2025-2-14 11:15 编辑


2023年初,由人工智能研究实验室OpenAI开发的Chat**引起了无数网友关注,一度成为了热门话题,也掀开了新一轮的人工智能(AI)浪潮。OpenAI先后投资了数十亿美元,利用英伟达最新的计算卡,以满足处理训练和扩展AI所需的巨大计算负载。另一方面,传出OpenAI正在开发自己的AI芯片,希望可以更高效、更低成本地适配其开发的大型语言模型(LLM),满足未来算力的需求。



据TrendForce报道,OpenAI将在未来几个月内完成其第一款内部AI芯片的设计,朝着减少对英伟达的依赖迈出关键一步。其目标是2026年量产,预计很快会送去台积电(TSMC)进行试产,采用3nm工艺制造。

传闻OpenAI的首款AI芯片虽然能够训练和运行模型,但最初的作用有限,不过一定程度上也是制衡英伟达影响力的战略举措。OpenAI的硬件团队由前谷歌芯片专家Richard Ho领导,成员数量已经翻了一番,达到了40人。与此同时,OpenAI还选择与博通合作,引入定制设计。

OpenAI当然不是唯一一间开发内部AI芯片的科技公司,像微软和谷歌过去多年里也是一直这么做的。有报告称,尽管DeepSeek的突破引发了人们对未来芯片需求的怀疑,但飙升的成本和对英伟达的过度依赖正在推动包括OpenAI在内的科技公司寻求替代方案。

新闻来源 https://www.expreview.com/98206.html

panzer 发表于 2025-2-13 23:56

标题丢了一个字母O

348495990 发表于 2025-2-14 00:45

40人就能研发出3nm制程芯片???

赫敏 发表于 2025-2-14 03:07

348495990 发表于 2025-2-13 11:45
40人就能研发出3nm制程芯片???

AI芯片相对cpu简单太多了,正常

fenytk 发表于 2025-2-14 03:39

348495990 发表于 2025-2-14 00:45
40人就能研发出3nm制程芯片???

估计难度跟矿机差不多的东西,把现成的算法固化

赫敏 发表于 2025-2-14 06:52

fenytk 发表于 2025-2-13 14:39
估计难度跟矿机差不多的东西,把现成的算法固化

可能比矿机都还更简单。。。。

jcd_chh 发表于 2025-2-14 08:31

标题我以为又冒出一个penAI的初创公司

huhudna 发表于 2025-2-14 09:10

干死英伟达[偷笑] 这算不算专业矿机?

libfire2002 发表于 2025-2-14 09:46

既然40个人,就有搞出比GB200 还强的芯片?

哪我们还怕啥

shiangyeh 发表于 2025-2-14 13:28

libfire2002 发表于 2025-2-14 09:46
既然40个人,就有搞出比GB200 还强的芯片?

哪我们还怕啥

推理芯片而已,不要想太多

赫敏 发表于 2025-2-14 14:36

libfire2002 发表于 2025-2-13 20:46
既然40个人,就有搞出比GB200 还强的芯片?

哪我们还怕啥

跟黄卡没法比,差太远了

完颜哒哒迩 发表于 2025-2-14 18:58

      CloseAI

os39000 发表于 2025-2-14 19:53

完颜哒哒迩 发表于 2025-2-14 18:58
CloseAI

掉个字母就惨了,loseAI

yangzi123aaa20 发表于 2025-2-15 06:51

股沟的TPU整了那么多年,不还是一样在抢黄卡
多卡互联和高带宽目前就是显卡厂弄的最好,老黄还多个生态优势

windyboy 发表于 2025-2-15 13:52

核心竞争力是CUDA, openai有没有

星河之主 发表于 2025-2-15 15:53

AI 引领世界未来期待

fenytk 发表于 2025-2-15 17:54

赫敏 发表于 2025-2-14 06:52
可能比矿机都还更简单。。。。

按FP8做,相当于一堆8bit单片机集合?[偷笑]

rukky 发表于 2025-2-15 21:24

348495990 发表于 2025-2-14 00:45
40人就能研发出3nm制程芯片???

传闻OpenAI的首款AI芯片虽然能够训练和运行模型,但最初的作用有限

估计又是asic这种

glamor 发表于 2025-2-16 14:35

openai只是看起来40人,其实一堆公司围绕他们做配套。
运行模型并不一定是cuda,还有就是这样的芯片并不如手机芯片那么复杂。

赤卫队员 发表于 2025-2-17 14:50

libfire2002 发表于 2025-2-14 09:46
既然40个人,就有搞出比GB200 还强的芯片?

哪我们还怕啥

我们缺的是3nm**机,不是芯片设计。

newranger 发表于 2025-2-19 13:21

LLM模型对于硬件的使用可以分为两方面,一是训练、二是推理。随着Scaling Law逐渐触及瓶颈,意味对于训练用硬件的需求将减缓,另一边,模型使用范围的增加,推理用硬件的需求将成指数级增加。
CUDA生态的最大意义在于能够快速搭建训练平台,实验训练效果,即CUDA生态最强的方面在于训练。考虑到Nvidia显卡居高不下的售价,显然在推理端使用CUDA生态是巨大的浪费,所以我预计各大AI巨头将从推理端开始,逐渐替换Nvidia显卡。
如果Nvidia降价是否可行,这可能要考虑AI的盈利模式,个人认为线上服务很难收回成本,那么进行软硬件捆绑销售就是一种必然会考虑的模式,未来头部的AI模型商会出售专门针对自家模型优化推理速度的硬件。
页: [1]
查看完整版本: OpenAI将很快完成内部AI芯片设计 目标2026年量产,采用台积电3nm工艺制造