找回密码
 加入我们
搜索
      
楼主: wjm47196

[CPU] 牙膏厂这个宣发

[复制链接]
发表于 2023-12-15 21:35 | 显示全部楼层
看视频能实时ai换脸不
发表于 2023-12-15 22:09 | 显示全部楼层
懂AI不?不懂就好办了
发表于 2023-12-16 04:08 | 显示全部楼层
castell 发表于 2023-12-15 17:16
so,这次流星湖P核ipc提升了多少?

大概-10
发表于 2023-12-16 07:40 | 显示全部楼层
KimmyGLM 发表于 2023-12-15 03:30
嗯,我是说同级的对比,比如联想小新16pro 7840HS 32G+1T,目前是5500,这次首发的16pro ultra 5 是 5999 ...

ultra 5跟以前i5一样,鱼目混珠。首发明显是灵耀14最优
发表于 2023-12-16 07:42 | 显示全部楼层
castell 发表于 2023-12-15 04:16
so,这次流星湖P核ipc提升了多少?

基本没有提升,cb24这种新的提升了2%大概,某些老项目比如cpuz还倒吸了
发表于 2023-12-16 13:10 | 显示全部楼层
kozaya 发表于 2023-12-15 15:52
两家差不多
A家的8945HS / 8845HS
也是主打AI提升

7840H就有了 塞进去了Xilinx的AI芯片  马甲而已

而且理论算力 7840H这个还更高
发表于 2023-12-16 13:14 | 显示全部楼层
liyichao97 发表于 2023-12-15 16:01
端侧大模型这事,就很可疑
芯片厂和笔记本厂当然一万个愿意,但是应用落地最重要的推手微软大概率是表面上 ...

端侧大模型真的凉拌的  且不说内存容量  带宽也完全比不了 这个才是推理主要消耗的东西
大部分时间是在里面做参数之间传输
发表于 2023-12-16 19:05 | 显示全部楼层
Illidan2004 发表于 2023-12-16 13:14
端侧大模型真的凉拌的  且不说内存容量  带宽也完全比不了 这个才是推理主要消耗的东西
大部分时间是在里 ...

带宽其实还好,因为个人用户无所谓模型的吞吐量,也不会并行使用,一秒钟能出几个字赶上语音输出的速度就行
主要还是容量,得先装得下
发表于 2023-12-17 12:08 | 显示全部楼层
liyichao97 发表于 2023-12-16 19:05
带宽其实还好,因为个人用户无所谓模型的吞吐量,也不会并行使用,一秒钟能出几个字赶上语音输出的速度就 ...

容量堆内存就行了 就是内存太慢  要SOC里堆那肯定不现实

高通的也一样 内存不行  推理速度有影响的   当然也看应用 应用需求没那么高就行  
发表于 2023-12-17 12:34 | 显示全部楼层
Illidan2004 发表于 2023-12-16 13:10
7840H就有了 塞进去了Xilinx的AI芯片  马甲而已

而且理论算力 7840H这个还更高 ...

关键还是应用太少  用不太上  
发表于 2023-12-17 19:07 | 显示全部楼层
chenwen834 发表于 2023-12-17 12:34
关键还是应用太少  用不太上

估计intel就是想强推自家标准  
实际上AMD用的反而是微软自带那套库的方案
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-28 01:58 , Processed in 0.009647 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表