rukky 发表于 2023-12-15 21:35

看视频能实时ai换脸不

mode1 发表于 2023-12-15 22:09

懂AI不?不懂就好办了

ykdo 发表于 2023-12-16 04:08

castell 发表于 2023-12-15 17:16
so,这次流星湖P核ipc提升了多少?

大概-10

赫敏 发表于 2023-12-16 07:40

KimmyGLM 发表于 2023-12-15 03:30
嗯,我是说同级的对比,比如联想小新16pro 7840HS 32G+1T,目前是5500,这次首发的16pro ultra 5 是 5999 ...

ultra 5跟以前i5一样,鱼目混珠。首发明显是灵耀14最优

赫敏 发表于 2023-12-16 07:42

castell 发表于 2023-12-15 04:16
so,这次流星湖P核ipc提升了多少?

基本没有提升,cb24这种新的提升了2%大概,某些老项目比如cpuz还倒吸了

Illidan2004 发表于 2023-12-16 13:10

kozaya 发表于 2023-12-15 15:52
两家差不多
A家的8945HS / 8845HS
也是主打AI提升

7840H就有了 塞进去了Xilinx的AI芯片马甲而已

而且理论算力 7840H这个还更高

Illidan2004 发表于 2023-12-16 13:14

liyichao97 发表于 2023-12-15 16:01
端侧大模型这事,就很可疑
芯片厂和笔记本厂当然一万个愿意,但是应用落地最重要的推手微软大概率是表面上 ...

端侧大模型真的凉拌的且不说内存容量带宽也完全比不了 这个才是推理主要消耗的东西
大部分时间是在里面做参数之间传输

liyichao97 发表于 2023-12-16 19:05

Illidan2004 发表于 2023-12-16 13:14
端侧大模型真的凉拌的且不说内存容量带宽也完全比不了 这个才是推理主要消耗的东西
大部分时间是在里 ...

带宽其实还好,因为个人用户无所谓模型的吞吐量,也不会并行使用,一秒钟能出几个字赶上语音输出的速度就行
主要还是容量,得先装得下

Illidan2004 发表于 2023-12-17 12:08

liyichao97 发表于 2023-12-16 19:05
带宽其实还好,因为个人用户无所谓模型的吞吐量,也不会并行使用,一秒钟能出几个字赶上语音输出的速度就 ...

容量堆内存就行了 就是内存太慢要SOC里堆那肯定不现实

高通的也一样 内存不行推理速度有影响的   当然也看应用 应用需求没那么高就行

chenwen834 发表于 2023-12-17 12:34

Illidan2004 发表于 2023-12-16 13:10
7840H就有了 塞进去了Xilinx的AI芯片马甲而已

而且理论算力 7840H这个还更高 ...

关键还是应用太少用不太上

Illidan2004 发表于 2023-12-17 19:07

chenwen834 发表于 2023-12-17 12:34
关键还是应用太少用不太上

估计intel就是想强推自家标准
实际上AMD用的反而是微软自带那套库的方案
页: 1 [2]
查看完整版本: 牙膏厂这个宣发