找回密码
 加入我们
搜索
      
查看: 7158|回复: 16

[内存] macbook pro内存选择

[复制链接]
发表于 2024-1-11 16:46 | 显示全部楼层
看你要玩哪种模型,目前8G都能跑tiny llama,1.1B的LoRA模型。
发表于 2024-1-11 17:11 | 显示全部楼层
本帖最后由 我輩樹である 于 2024-1-11 17:13 编辑


70b的模型需要至少64GB,max token 200。给你个参考。7b的大概32G就够了。

1.png

要在苹果上跑llm,可以关注一下mlx社区。mlx framework。
发表于 2024-1-11 17:58 | 显示全部楼层
Anonymous.R 发表于 2024-1-11 17:39
苹果跑效率如何?性价比咋样,比起cuda

性价比肯定很低了,这个能流行完全是国外mac占有率太高。
发表于 2024-1-11 18:12 | 显示全部楼层
本帖最后由 我輩樹である 于 2024-1-11 18:14 编辑

截屏2024-01-11 18.09.35.jpg

llama 2 7b的下下来跑了下,这是无量化的float16版本。最高33GB内存消耗。当然是包含后台任务的。
功耗64w,怕不怕。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-9-16 02:49 , Processed in 0.008779 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表