找回密码
 加入我们
搜索
      
查看: 7716|回复: 20

[通讯科技] OpenAI将很快完成内部AI芯片设计 目标2026年量产,采用台积电3nm工艺制造

[复制链接]
发表于 2025-2-19 13:21 | 显示全部楼层
LLM模型对于硬件的使用可以分为两方面,一是训练、二是推理。随着Scaling Law逐渐触及瓶颈,意味对于训练用硬件的需求将减缓,另一边,模型使用范围的增加,推理用硬件的需求将成指数级增加。
CUDA生态的最大意义在于能够快速搭建训练平台,实验训练效果,即CUDA生态最强的方面在于训练。考虑到Nvidia显卡居高不下的售价,显然在推理端使用CUDA生态是巨大的浪费,所以我预计各大AI巨头将从推理端开始,逐渐替换Nvidia显卡。
如果Nvidia降价是否可行,这可能要考虑AI的盈利模式,个人认为线上服务很难收回成本,那么进行软硬件捆绑销售就是一种必然会考虑的模式,未来头部的AI模型商会出售专门针对自家模型优化推理速度的硬件。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-11-5 06:37 , Processed in 0.007150 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表