同样跑ai,为什么新能源车能有几百GB内存,远远超过PC
本帖最后由 Prof.XxXxX 于 2025-9-8 15:55 编辑同样是跑ai应用,
为什么新能源车有几百G内存,比如说中端定位的小鹏P7有200多GB的内存,
而PC个人电脑中高端常见的只有64,96,128GB这点规格,算上5090也最多100GB上下。
另外一点在内存带宽上新能源车已经做到了500GB/s的级别,也是数倍于PC电脑内存
有坛友对汽车搭载这么大内存表示质疑,官方参数表贴出来如下:
https://www.xiaopeng.com/p7n/configuration.html 为了智驾吧 你买电脑预算足够的话,几百G内存不在话下 "同样跑ai"
跑在哪 内存又不值钱
AI是不能放到内存中跑的 至少效率非常低
AI要及时运算的都是放在显存中
内存大 是减少 到SSD与 CPU GPU交换数据的这个步骤
也就是说内存大就是给CPU GPU喂数据的地方 你说的内存一般叫闪存或者 存储 新能源车有几百GB内存?
新能源车还能跑ai bxhaai 发表于 2025-9-8 15:41
你说的内存一般叫闪存或者 存储
可以花10秒看一下是内存还是存储。
https://www.xiaopeng.com/p7n/configuration.html 这是小鹏自家的AI芯片,那自然上多大内存是自己说了算…… Prof.XxXxX 发表于 2025-9-8 15:43
可以花10秒看一下是内存还是存储。
https://www.xiaopeng.com/p7n/configuration.html
看了,不是写着么,内存64G啊
bxhaai 发表于 2025-9-8 15:45
看了,不是写着么,内存64G啊
截图不全,还有个是152G,确实挺大的
这不是写着么
中央计算平台(XCCP)内存-RAM 152 GB
视觉语言模型控制器(VLMU)内存-RAM 64G 消费级平台个人电脑跑千亿级参数大模型,闲的?
GB200:你说,我在听
EPYC 9755:你说,我在听 20几万的车,就算分5%预算到内存上, 1万块,企业批量采购能上多大的? [偷笑] 定制的专用平台和我们的通用平台不是一种东西 冰汐 发表于 2025-9-8 15:53
20几万的车,就算分5%预算到内存上, 1万块,企业批量采购能上多大的?
之前有人曝光出来40万售价的奔驰GLC,车辆的物料成本只有13万,其他就是车企利润、费用和税,所以预算不高全部都要扣扣索索的,而且车企利润好像也不高 标题起的吓得我查了一下配置表,结果是中央处理器内存152G,视觉模拟器控制器64G,先不说这两块是分开的,类似PC内存和显存的分别。PC你买内存也能超过152G呀,x870主板最高都支持192G了,这还不是分分钟的事情? 你花20万配个电脑就有几百G内存了 如果你买电脑像那些买国产电车的一样,人傻钱多的话,你的电脑肯定会超越车载电脑的 这种汽车其实是一组电脑,视觉模型用的多,很吃内存,这玩意可不能 OOM 他这个主要是在汽车本地跑AI大模型吧,参数比较多,肯定要吃不少内存。现在汽车主打智能化,这是一个核心卖点。
PC机基本没有AI智能化这个需求,最吃性能的需求是打游戏,不需要多大内存。 1个24G座舱8295芯片带3个图灵64GAI芯片,构成了216G内存,一组芯片互联的 Gaiden 发表于 2025-9-8 16:57
1个24G座舱8295芯片带3个图灵64GAI芯片,构成了216G内存,一组芯片互联的
这样就解释得通了,实际上是每个车里有好几台 独立的计算机通过高速线缆互联通信呗,之前好像看过美国高通 or 英伟达的全车高速互联方案。
原因很简单啊,因为RAM并不贵。
游戏并不需要多少VRAM,所以用VRAM划分市场,并设法阻碍游戏卡用于计算。
(赚更多的钱)
RAM跟ROM分不清吗?RAM才是内存,这个配置哪里几百G了 内存不值钱,英伟达故意限制低端卡的内存抬高高端卡的溢价,AI的权重特别吃内存,比如ds3最大的那个满血模型要想本地单机运行, fp16下光权重就要6百多G Pickle 发表于 2025-9-8 17:13
RAM跟ROM分不清吗?RAM才是内存,这个配置哪里几百G了
152+64 可能是这样算的 对于车载智能驾驶芯片来说,都是类似苹果M1这种统一内存架构,没有啥内存/显存概念,都是LPDDR5X的芯片,统一内存寻址,物理上就是同一块memory chip
大主要是为了堆带宽,加上cpu/gpu一起用所以自然放的大一点 定制的专用平台和我们的通用平台不是一种东西 本帖最后由 我輩樹である 于 2025-9-8 20:29 编辑
nvidia刚出的drive thor有64/128GB lpddr5x 统一寻址内存,极氪要搭载。这个算是标杆了吧,2000T的算力。
这个跑端对端智驾足够了,闲时还可以跑点小规格的locallm。
很多内存很大的方案不是统一寻址架构,统一寻址要做大很贵。