找回密码
 加入我们
搜索
      
查看: 5177|回复: 66

[内存] 同样跑ai,为什么新能源车能有几百GB内存,远远超过PC

[复制链接]
发表于 2025-9-8 15:36 | 显示全部楼层 |阅读模式
本帖最后由 Prof.XxXxX 于 2025-9-8 15:55 编辑

同样是跑ai应用,
为什么新能源车有几百G内存,比如说中端定位的小鹏P7有200多GB的内存,
而PC个人电脑中高端常见的只有64,96,128GB这点规格,算上5090也最多100GB上下。
另外一点在内存带宽上新能源车已经做到了500GB/s的级别,也是数倍于PC电脑内存
有坛友对汽车搭载这么大内存表示质疑,官方参数表贴出来如下:
https://www.xiaopeng.com/p7n/configuration.html

点评

我的电脑有192g内存,请问自动驾驶在哪领?  发表于 2025-9-8 21:38
发表于 2025-9-8 15:38 | 显示全部楼层
为了智驾吧
发表于 2025-9-8 15:39 | 显示全部楼层
你买电脑预算足够的话,几百G内存不在话下
发表于 2025-9-8 15:40 | 显示全部楼层
"同样跑ai"
跑在哪
发表于 2025-9-8 15:40 | 显示全部楼层
内存又不值钱

AI是不能放到内存中跑的 至少效率非常低  

AI要及时运算的都是放在显存中

内存大 是减少 到SSD与 CPU GPU交换数据的这个步骤

也就是说内存大就是给CPU GPU喂数据的地方
发表于 2025-9-8 15:41 | 显示全部楼层
你说的内存一般  叫  闪存或者 存储
发表于 2025-9-8 15:42 | 显示全部楼层
新能源车有几百GB内存?
新能源车还能跑ai
 楼主| 发表于 2025-9-8 15:43 | 显示全部楼层
bxhaai 发表于 2025-9-8 15:41
你说的内存一般  叫  闪存或者 存储

可以花10秒看一下是内存还是存储。
https://www.xiaopeng.com/p7n/configuration.html
发表于 2025-9-8 15:45 | 显示全部楼层
这是小鹏自家的AI芯片,那自然上多大内存是自己说了算……
发表于 2025-9-8 15:45 | 显示全部楼层
Prof.XxXxX 发表于 2025-9-8 15:43
可以花10秒看一下是内存还是存储。
https://www.xiaopeng.com/p7n/configuration.html

看了,不是写着么,内存64G啊

wechat_2025-09-08_154446_196.png
发表于 2025-9-8 15:48 | 显示全部楼层
bxhaai 发表于 2025-9-8 15:45
看了,不是写着么,内存64G啊

截图不全,还有个是152G,确实挺大的

wechat_2025-09-08_154446_196.png
发表于 2025-9-8 15:49 | 显示全部楼层
这不是写着么
中央计算平台(XCCP)内存-RAM                 152 GB  
视觉语言模型控制器(VLMU)内存-RAM      64G
发表于 2025-9-8 15:52 | 显示全部楼层
消费级平台个人电脑跑千亿级参数大模型,闲的?

GB200:你说,我在听
EPYC 9755:你说,我在听
发表于 2025-9-8 15:53 | 显示全部楼层
20几万的车,就算分5%预算到内存上, 1万块,企业批量采购能上多大的?
发表于 2025-9-8 15:57 | 显示全部楼层
定制的专用平台和我们的通用平台不是一种东西
 楼主| 发表于 2025-9-8 16:00 | 显示全部楼层
冰汐 发表于 2025-9-8 15:53
20几万的车,就算分5%预算到内存上, 1万块,企业批量采购能上多大的?


之前有人曝光出来40万售价的奔驰GLC,车辆的物料成本只有13万,其他就是车企利润、费用和税,所以预算不高全部都要扣扣索索的,而且车企利润好像也不高
发表于 2025-9-8 16:02 | 显示全部楼层
标题起的吓得我查了一下配置表,结果是中央处理器内存152G,视觉模拟器控制器64G,先不说这两块是分开的,类似PC内存和显存的分别。PC你买内存也能超过152G呀,x870主板最高都支持192G了,这还不是分分钟的事情?
发表于 2025-9-8 16:02 | 显示全部楼层
你花20万配个电脑就有几百G内存了
发表于 2025-9-8 16:34 | 显示全部楼层
如果你买电脑像那些买国产电车的一样,人傻钱多的话,你的电脑肯定会超越车载电脑的
发表于 2025-9-8 16:38 | 显示全部楼层
这种汽车其实是一组电脑,视觉模型用的多,很吃内存,这玩意可不能 OOM
发表于 2025-9-8 16:54 | 显示全部楼层
他这个主要是在汽车本地跑AI大模型吧,参数比较多,肯定要吃不少内存。现在汽车主打智能化,这是一个核心卖点。

PC机基本没有AI智能化这个需求,最吃性能的需求是打游戏,不需要多大内存。
发表于 2025-9-8 16:57 | 显示全部楼层
1个24G座舱8295芯片带3个图灵64GAI芯片,构成了216G内存,一组芯片互联的
发表于 2025-9-8 17:00 | 显示全部楼层
Gaiden 发表于 2025-9-8 16:57
1个24G座舱8295芯片带3个图灵64GAI芯片,构成了216G内存,一组芯片互联的


这样就解释得通了,实际上是每个车里有好几台 独立的计算机通过高速线缆互联通信呗,之前好像看过美国高通 or 英伟达的全车高速互联方案。
发表于 2025-9-8 17:05 | 显示全部楼层
原因很简单啊,因为RAM并不贵。

游戏并不需要多少VRAM,所以用VRAM划分市场,并设法阻碍游戏卡用于计算。
(赚更多的钱)
发表于 2025-9-8 17:13 | 显示全部楼层
wechat_2025-09-08_171145_504.png
RAM跟ROM分不清吗?RAM才是内存,这个配置哪里几百G了
发表于 2025-9-8 17:17 | 显示全部楼层
内存不值钱,英伟达故意限制低端卡的内存抬高高端卡的溢价,AI的权重特别吃内存,比如ds3最大的那个满血模型要想本地单机运行, fp16下光权重就要6百多G
发表于 2025-9-8 17:24 | 显示全部楼层
Pickle 发表于 2025-9-8 17:13
RAM跟ROM分不清吗?RAM才是内存,这个配置哪里几百G了

152+64 可能是这样算的
发表于 2025-9-8 17:25 | 显示全部楼层
对于车载智能驾驶芯片来说,都是类似苹果M1这种统一内存架构,没有啥内存/显存概念,都是LPDDR5X的芯片,统一内存寻址,物理上就是同一块memory chip

大主要是为了堆带宽,加上cpu/gpu一起用所以自然放的大一点
发表于 2025-9-8 18:45 | 显示全部楼层
定制的专用平台和我们的通用平台不是一种东西
发表于 2025-9-8 20:26 | 显示全部楼层
本帖最后由 我輩樹である 于 2025-9-8 20:29 编辑

nvidia刚出的drive thor有64/128GB lpddr5x 统一寻址内存,极氪要搭载。这个算是标杆了吧,2000T的算力。
这个跑端对端智驾足够了,闲时还可以跑点小规格的locallm。

很多内存很大的方案不是统一寻址架构,统一寻址要做大很贵。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-9-10 23:26 , Processed in 0.020723 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表