hawie 发表于 2025-7-12 23:24

我輩樹である 发表于 2025-7-12 22:54
为此我还装过asahi linux。我是做人工智能的,这点专业常识还是有的。

牛!
不过m4pro环境,这个方式是有效的,这样可以免除8GB限制,尝试极限使用。设置后21GB尺寸内的模型可以看到100% GPU装载,性能正常。虽只给macOS留3GB,但swap的只要不是模型数据,输出性能不影响。
页: 1 2 3 [4]
查看完整版本: 5090D用ollama跑deepseek r1 32b的效果。