找回密码
 加入我们
搜索
      
查看: 468|回复: 6

[软件] 有用新mac mini 跑本地AI模型的吗?

[复制链接]
发表于 2025-11-19 13:54 | 显示全部楼层 |阅读模式
就想把自己整理的资料什么在本地搞个ai模型
请教一下可行吗?
发表于 2025-11-19 14:16 | 显示全部楼层
Mini的内存带宽就120G,现在普通机器内存带宽也有70-130左右,现在的入门显卡显存带宽也应该在200G以上了
Mini本地跑模型的速度可能也就和普通x86机器差不多了,不爆显存话,连入门显卡的效果都不如
发表于 2025-11-19 14:21 | 显示全部楼层
等M5MAX吧,M4还是慢了不少的,MAX内存带宽应该在600GB左右
发表于 2025-11-19 14:38 来自手机 | 显示全部楼层
7B 14B这种跑起来还可以
发表于 2025-11-19 15:10 来自手机 | 显示全部楼层
要是打算买mini还没买,可以用这预算搞一个2080ti 22g的机器,速度比mini快,显存也比丐版mini大不少,30b的模型吊打7/14b的
发表于 2025-11-19 15:34 | 显示全部楼层
enuma0 发表于 2025-11-19 14:38
7B 14B这种跑起来还可以

这种家用PC也一样跑的。
发表于 2025-11-19 17:15 | 显示全部楼层
16GB的型号跑Ollama,基本上10GB大小的模型就是极限了(系统限制),然后还得处理资料,还得部署mcp,可能会有点麻烦
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-11-19 17:16 , Processed in 0.007521 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表