找回密码
 加入我们
搜索
      
查看: 10829|回复: 71

[显卡] 新手本地LLM折腾分享

[复制链接]
发表于 2025-2-13 13:19 | 显示全部楼层
不知道楼上的各位有没有这个感觉,那就是ollama跑比LM跑总感觉速度要快一丢丢
发表于 2025-2-13 13:46 | 显示全部楼层
秦南瓜 发表于 2025-2-13 13:25
额,为啥?这玩意还有快乐表的嘛。。。

不知道,我自己ollama和LLM分别跑32b的模型就是ollama快...
发表于 2025-2-13 13:48 | 显示全部楼层
秦南瓜 发表于 2025-2-13 13:48
显示速度都一样,体感有差别?还是说实际跑的速度就不一样的。。

实际跑的速度能明显感觉出来
发表于 2025-2-13 13:55 | 显示全部楼层
秦南瓜 发表于 2025-2-13 13:50
你说的llm是lm studio吗,应该是设置问题

是的                  
发表于 2025-2-13 14:01 | 显示全部楼层
秦南瓜 发表于 2025-2-13 13:58
lm studio上下文你设置多少,这玩意设置大的话,显存占用很爆炸的,会影响速度,还有就是gpu offload记得 ...

4096默认值,温度0.6-0.8,其他不动
发表于 2025-2-13 14:05 | 显示全部楼层
秦南瓜 发表于 2025-2-13 14:02
设置差异了。 ollama我下载下来就没整webui设置,全默认用。。

这么说,也有可能..
发表于 2025-2-13 16:47 | 显示全部楼层
uprit 发表于 2025-2-13 16:21
就是上下文的影响。上下文越长,显存占用越大,推理速度越慢。ollama默认只有2k上下文。

...

原来如此,学到了,谢谢解答
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-6-25 16:44 , Processed in 0.008579 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表