amagene 发表于 2025-3-16 13:25

terryteng 发表于 2025-3-14 14:20
然后是跑大模型的结果,分别跑了qwq、gemma3:27b、deepseek-r1:32b、deepseek-r1:70b,基本是原本满配Mac ...

你的qwq是多少量化

Freewill1 发表于 2025-3-16 14:09

高内存版本对我还是贵了点……

zylicheng 发表于 2025-3-16 16:57

hawie 发表于 2025-3-16 08:31
macOS 比其他OS更容易安装deepseek:
1. 安装ollama,首页点下载、再安装即可。



已经收到了

hawie 发表于 2025-3-16 18:46

zylicheng 发表于 2025-3-16 16:57
已经收到了

好!
还有一个https://lmstudio.ai/,这个安装启动之后,它的右下角有个齿轮,点击进设置,选左侧最后一项,点击显示GPU等硬件信息。关心36GB统一内存默认会留多少给GPU。

zylicheng 发表于 2025-3-16 18:49

hawie 发表于 2025-3-16 18:46
好!
还有一个https://lmstudio.ai/,这个安装启动之后,它的右下角有个齿轮,点击进设置,选左侧最后一 ...

好的,在下载ollama,一会全部试试

浮夸谁的爱 发表于 2025-3-16 19:21

m1max接着在用吧

haoyumena 发表于 2025-3-16 20:17

hawie 发表于 2025-3-16 18:46
好!
还有一个https://lmstudio.ai/,这个安装启动之后,它的右下角有个齿轮,点击进设置,选左侧最后一 ...

默认好像是3/4的总内存,我的mbp是12/16,mini是48/64

bbzcat 发表于 2025-3-16 22:39

hawie 发表于 2025-3-15 07:32
一台机子,能跑的量化蒸馏模型不多,保留着参数,或者latest省略,都正常,除非经常换来换去。一般也就是 ...

量化、蒸馏损失再大,无关紧要,性能妥协而已 —— 呵呵,这可不是速度慢不慢的性能问题啊

iget 发表于 2025-3-16 23:42

感谢分享,硬盘扩充到4T好评!

zufh 发表于 2025-3-17 00:05

求一个小天才李燎 Pro产品购买链接

microsc 发表于 2025-3-17 00:39

m4 pro的mac mini真的强的离谱。。

fevaoctwh 发表于 2025-3-17 10:37

hawie 发表于 2025-3-16 18:46
好!
还有一个https://lmstudio.ai/,这个安装启动之后,它的右下角有个齿轮,点击进设置,选左侧最后一 ...

LM Studio也能看,最近能跑的量化版本你参考吧




hawie 发表于 2025-3-17 12:48

fevaoctwh 发表于 2025-3-17 10:37
LM Studio也能看,最近能跑的量化版本你参考吧

27GB VRAM,真好!跑这几个当红大模型轻轻松松了。
32b用m4 pro能及格/良好,要优秀必须得max以上了。

terryteng 发表于 2025-3-17 13:32

haoyumena 发表于 2025-3-16 09:50
感谢。我查看了一下我自己的,默认这两个选项已经是0,然后ollama ps显示100%GPU,我自己的是64G的版本, ...

我之前M4Pro 64G,系统不调整配置的话,ollama跑32b也是10T/s左右

蓝雪 发表于 2025-3-17 18:43

就多了个PRO,但性能提升真的大

terryteng 发表于 2025-3-18 14:17

amagene 发表于 2025-3-16 13:25
你的qwq是多少量化

32b-q4_K_M

Paramount 发表于 2025-3-20 17:36

今天我也下单了一台 M4

xiaomin23 发表于 2025-3-22 23:12

这北美版音箱真耐用

dsp 发表于 2025-4-3 06:51

terryteng 发表于 2025-4-6 21:54

dsp 发表于 2025-4-3 06:51
老板,实际跑起来是什么成绩?

前面已经回复过了 你翻一翻哈哈

jyecdd 发表于 2025-4-7 10:16

音箱经典,有年头了[傻笑]
页: 1 2 3 4 [5]
查看完整版本: 跨越不止一点——M4升级M4 Pro+4TB/32B至每秒17词