有多大显存呢
12G
和一众16G的AIPC可用的差不多 你这个需求真的很抽象 为什么对这种没啥屁用的东西抱有期待呢不理解。 台式机这东西没用,直接用显卡就可以了 想要多个框框可以买英特尔很早之前那个usb的npu,淘宝还在卖。 这种对大众没卵用的东西,加了也是徒增成本,挤占芯片面积。真有强ai需求的直接上显卡不香? wjm47196 发表于 2024-7-6 21:00
npu16tops 总算力38tops。。。不符合微软对aipc定义,不过要跑肯定能跑。。。
NPU+GPU总算力38,但是你一个应用一个模型也就只能同时调用1个单元,NPU的16TOPS还是INT8的能有多大用途?CPU集成NPU唯一优势是内存够大可以加载大模型,但是推理速度就够慢的了,RTX4060的tensor core int8/fp8算力是240T BFG9K 发表于 2024-7-7 01:45
你这个需求真的很抽象
只是想方设法踩一下按摩弟,但是又找不到点。 没啥用吧,要么CPU硬怼,要么GPU,NPU这个速度也不比CPU快多少吧,前段时间有个坛友分享的NPU的测试,我看速度就很一般。 正经人谁用这玩意 jxljk 发表于 2024-7-6 19:18
我的要求很简单我只想在任务管理器里再多一个框框而已
弥补一下285k框框不足的缺点 myway 发表于 2024-7-6 18:48
你在国内没有 Copilot ,啥机器都没有,亲儿子高通也没有
你怕是不知道国内一堆公司都在用copilot吧,从公司层面和微软合作,根本不需要考虑啥墙不墙的,用的溜溜的,当然也难免会偶尔网络抽风~ 7940HS,在win 11 24H2中,安装AMD最新的显卡驱动adrenalin-edition-24.6.1,可以在任务管理器看到NPU,也可以在设备管理器看到NPU,以前版本windows的显卡驱动都是在系统设备里有个IPU,现在已经不见,改名单独的Neural processors. 8B的小模型7900X直接怼也很快
70B的老旧7980XE很吃力,1s蹦一个单词 toshibacom 发表于 2024-7-9 19:10
7940HS,在win 11 24H2中,安装AMD最新的显卡驱动adrenalin-edition-24.6.1,可以在任务管理器看到NPU,也 ...
美滋滋 gx3406 发表于 2024-7-9 18:11
你怕是不知道国内一堆公司都在用copilot吧,从公司层面和微软合作,根本不需要考虑啥墙不墙的,用的溜溜 ...
那是企业服务,我说的给个人消费类用户
页:
1
[2]