找回密码
 加入我们
搜索
      
查看: 14727|回复: 61

[显卡] 新手本地部署LLM的一些问题

[复制链接]
发表于 2025-2-5 14:20 | 显示全部楼层
https://ollama.com/library/deepseek-r1/tags

总有一款适合你
富哥买苹果集群吧,部署671b Q4_K_M量化的版本,不过也要404GB内存
发表于 2025-2-6 10:27 | 显示全部楼层

目前来看,3w最多能买128GB的苹果。2台mac mini M4 pro 64GB,15499 * 2。mac studio还没更新
发表于 2025-2-6 11:04 | 显示全部楼层
秦南瓜 发表于 2025-2-6 10:32
确实,可以等等,也期待一下amd的 aimax,
  1. https://www.ollama.com/SIGJNF/deepseek-r1-671b-1.58bit
复制代码

现在又有1.58bit量化版本了,需要140GB显存
发表于 2025-2-6 11:32 | 显示全部楼层
秦南瓜 发表于 2025-2-6 11:10
这会不会笨死。。。

现在并不清楚选量化模型和蒸馏模型哪个更好,反正蒸馏再量化的肯定最差
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-11-5 04:22 , Processed in 0.008031 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表