找回密码
 加入我们
搜索
      
查看: 11593|回复: 71

[显卡] 新手本地LLM折腾分享

[复制链接]
发表于 2025-2-13 17:19 | 显示全部楼层
记着ollama是串行推理.只使用所有显卡显存.gpu还是可着一个干.vllm 是张量并行可以跑满所有显卡显存和gpu
发表于 2025-2-13 17:24 | 显示全部楼层
秦南瓜 发表于 2025-2-13 17:20
是的。。新手嘛,先玩傻瓜的

我也是刚开始玩.ollama完了几天卸载了..装个ubantu准备玩vllm 玩顺畅了考虑升级家里台式机做个本地大模型推理服务器.
发表于 2025-2-27 21:45 | 显示全部楼层
感谢楼主无私分享,给我们准备入坑的打了个样
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-7-12 19:33 , Processed in 0.008452 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表