如果用TensorFlow和PyTorch
你也可以考虑在m1或m2的mac mini或studio上跑
这个是两年前帖子了不知道现在软件方面怎样,我目前是用的M1 MACBOOK 我輩樹である 发表于 2023-7-4 09:02
很多人肯定想不到,当前用transformer做应用的新宠居然是mac studio m2 ultra顶配。 ...
关于这个...对比了下llama.cpu 65b q4_0的推理速度, 完全没能理解m2u怎么宠起来的
m2u顶配也就10token/s
36核spr全核3.6GHz略微改动仅仅把avx512vnni用起来没有深入优化就有8-9token/s了, 价格不到顶配m2u一半 meng83 发表于 2023-7-4 09:33
取决于具体模型,很多时候cpu比gpu快
你说的是训练还是推理啊?能不能举个例子啊,这样我就不用买H100了 yan1990_y 发表于 2023-7-4 19:02
你说的是训练还是推理啊?能不能举个例子啊,这样我就不用买H100了
llm不切图单纯把权重offload给system memory就很容易这样, 卡在pcie带宽上, 全cpu跑反而不会有这个问题, 切图的话毕竟复杂程度一下子上去了 如果不用GPU,搞个M1 M2 Mac Mini挺好的 我輩樹である 发表于 2023-7-4 09:02
很多人肯定想不到,当前用transformer做应用的新宠居然是mac studio m2 ultra顶配。 ...
是看了林yi视频了吧[傻笑] dlutwang 发表于 2023-7-5 14:24
你的原盘放到阿里云,,,估计没几天就和谐了吧
这个只有小JIEJIE才会和谐吗,正经的电影也会? wqxlcdymqc 发表于 2023-7-5 14:46
如果不用GPU,搞个M1 M2 Mac Mini挺好的
好几楼都推荐Mac mini,看来我可以先用手头的m1 air试试 本帖最后由 我輩樹である 于 2023-7-5 16:32 编辑
q3again0605 发表于 2023-7-5 15:25
是看了林yi视频了吧
看推特上的。很多做llm/vit的组都在给m2 ultra做适配了,其实不止m2,m1做适配的更多。
现在都在呼吁苹果给个官方支持。 本帖最后由 我輩樹である 于 2023-7-5 16:37 编辑
zhuifeng88 发表于 2023-7-4 18:57
关于这个...对比了下llama.cpu 65b q4_0的推理速度, 完全没能理解m2u怎么宠起来的
m2u顶配也就10token/s
...
可能是m2不需要买设备吧。苹果设备保有量比较大。搞得我也想买了。据说m1max也可以有5tokens。 就NUC那低电压U,性能也能用? 我輩樹である 发表于 2023-7-5 16:25
看推特上的。很多做llm/vit的组都在给m2 ultra做适配了,其实不止m2,m1做适配的更多。
现在都在呼吁苹 ...
同等价位的pc我知道能耗比肯定比不了,但是性能上应该超不少吧,应该够上3090ti sli和4090x2吧。但是考虑显存占用就吃亏了。 q3again0605 发表于 2023-7-5 19:09
同等价位的pc我知道能耗比肯定比不了,但是性能上应该超不少吧,应该够上3090ti sli和4090x2吧。但是考虑 ...
同价位足够4090x4了 zhuifeng88 发表于 2023-7-5 19:23
同价位足够4090x4了
也是差不多了,顶配好像5w多了 nuc9在高负载的时候,CPU风扇和电源风扇堪比飞机起飞…… 威联通吧有12带cpu的机器也就1w多块钱,虚拟机支持的比群辉好 我輩樹である 发表于 2023-7-4 09:02
很多人肯定想不到,当前用transformer做应用的新宠居然是mac studio m2 ultra顶配。 ...
是看了林XX等UP在那吹的视频吧?
整个视频尬得。。。 dlutwang 发表于 2023-7-5 14:24
你的原盘放到阿里云,,,估计没几天就和谐了吧
迅雷离线下载到迅雷云盘,用Alist挂载迅雷云盘
迅雷云盘基本不会和谐,有些有版权的多试试几个国外的源,换源后基本都可以避免迅雷版权 山不是水 发表于 2023-7-8 05:35
是看了林XX等UP在那吹的视频吧?
整个视频尬得。。。
什么林xx不清楚,见推特。 NUC9+3060 itx 其实,你只要放开体积,那性能和静音都能到位了,再说这玩意不用摆桌子上吧,随便哪个角落放放好了,大点就大点呗,散热什么的都不是问题。 听弦 发表于 2023-7-8 13:03
其实,你只要放开体积,那性能和静音都能到位了,再说这玩意不用摆桌子上吧,随便哪个角落放放好了,大点就 ...
有道理,多谢[音乐] sciwander 发表于 2023-7-8 11:24
NUC9+3060 itx
现在应该是4060了? 想玩机器学习的话,最好要有块nvidia的独显,6g以上显存,24g不嫌多。我用幻影峡谷(i71165g7@2.8G,rtx2060 6g)跑chatglm26b-int4勉强能跑,供参考。 achu2000 发表于 2023-7-9 19:12
想玩机器学习的话,最好要有块nvidia的独显,6g以上显存,24g不嫌多。我用幻影峡谷(,rtx2060 6g)跑chatglm2 ...
多谢指点,目前已不考虑普通小盒子的Nuc了
页:
1
[2]