so,这次流星湖P核ipc提升了多少?
大概-10 KimmyGLM 发表于 2023-12-15 03:30
嗯,我是说同级的对比,比如联想小新16pro 7840HS 32G+1T,目前是5500,这次首发的16pro ultra 5 是 5999 ...
ultra 5跟以前i5一样,鱼目混珠。首发明显是灵耀14最优 castell 发表于 2023-12-15 04:16
so,这次流星湖P核ipc提升了多少?
基本没有提升,cb24这种新的提升了2%大概,某些老项目比如cpuz还倒吸了 kozaya 发表于 2023-12-15 15:52
两家差不多
A家的8945HS / 8845HS
也是主打AI提升
7840H就有了 塞进去了Xilinx的AI芯片马甲而已
而且理论算力 7840H这个还更高 liyichao97 发表于 2023-12-15 16:01
端侧大模型这事,就很可疑
芯片厂和笔记本厂当然一万个愿意,但是应用落地最重要的推手微软大概率是表面上 ...
端侧大模型真的凉拌的且不说内存容量带宽也完全比不了 这个才是推理主要消耗的东西
大部分时间是在里面做参数之间传输 Illidan2004 发表于 2023-12-16 13:14
端侧大模型真的凉拌的且不说内存容量带宽也完全比不了 这个才是推理主要消耗的东西
大部分时间是在里 ...
带宽其实还好,因为个人用户无所谓模型的吞吐量,也不会并行使用,一秒钟能出几个字赶上语音输出的速度就行
主要还是容量,得先装得下 liyichao97 发表于 2023-12-16 19:05
带宽其实还好,因为个人用户无所谓模型的吞吐量,也不会并行使用,一秒钟能出几个字赶上语音输出的速度就 ...
容量堆内存就行了 就是内存太慢要SOC里堆那肯定不现实
高通的也一样 内存不行推理速度有影响的 当然也看应用 应用需求没那么高就行 Illidan2004 发表于 2023-12-16 13:10
7840H就有了 塞进去了Xilinx的AI芯片马甲而已
而且理论算力 7840H这个还更高 ...
关键还是应用太少用不太上 chenwen834 发表于 2023-12-17 12:34
关键还是应用太少用不太上
估计intel就是想强推自家标准
实际上AMD用的反而是微软自带那套库的方案
页:
1
[2]