找回密码
 加入我们
搜索
      
楼主: loughlion

[软件] 昨天在本地部署了deepseek r1-8b\14b\32b

[复制链接]
发表于 2025-2-1 13:19 | 显示全部楼层
通用小模型本地部署也就图个乐,低于32B的都太蠢了,时效性也差,而且大厂的本地模型也会有审查机制。
本地部署适合那种自己训练出来的、专业性强的、针对性使用的小模型,比如日语黄色翻译哈哈。
发表于 2025-2-1 14:24 | 显示全部楼层
loughlion 发表于 2025-2-1 13:09
我也用了图形界面,chatbox的,ollama+chatbox会不会比LM Studio资源占用多?要是换LM是不是要收费啊? ...

LM基础版是免费的,资源占用来说应该差不多吧,LM适合大模型尝鲜,即开即用
发表于 2025-2-1 15:10 | 显示全部楼层
70b蒸馏模型大概占用55G内存也可以跑,就是用CPU+内存硬跑的速度一言难尽
发表于 2025-2-1 15:20 | 显示全部楼层
本地 安装 ollama 下载一个模型,谷歌浏览器 挂一个Page Assist 插件能就玩了。。。要是会科学魔法,还能联网。。
发表于 2025-2-1 15:21 来自手机 | 显示全部楼层
楼主部署后是本地应用还是本地微调哈,我有个4070tis 16g 好像微调的话只能8b的,还要量化。现在还没时间实际操作下,想用基座模型,训练一下专门某个领域使用的模型
发表于 2025-2-1 18:27 | 显示全部楼层
搞lama吧,qwen貌似傻傻的。 我试了8B 70B还可以,32B qwen反而傻傻的。
发表于 2025-2-1 18:33 | 显示全部楼层
请教,本地配置有什么用处吗?
发表于 2025-2-1 18:53 | 显示全部楼层
模型的大小基本上就是使用显存的大小,32b 也只是qwen2 的蒸馏,大约20G,4090能跑的极限, 纯CPU跑就看内存大小,速度看CPU核心数,家用机跑起来也就1~3个Tokens/s 基本不能忍。
不知道什么样的配置才能跑起原生R1 671b的模型。家有AMD Epyc, 1Tb 内存的大佬可以一试。

以上大小都是基于Q4_K_M 量化后的大小。
发表于 2025-2-1 18:54 来自手机 | 显示全部楼层
loughlion 发表于 2025-2-1 01:38
就ollama提供的32b版本

默认q4 modelcard上写着
发表于 2025-2-1 19:00 来自手机 | 显示全部楼层
loughlion 发表于 2025-2-1 05:09
我也用了图形界面,chatbox的,ollama+chatbox会不会比LM Studio资源占用多?要是换LM是不是要收费啊? ...

那你少了个ollama很强的前端 open webui是御用的 原名叫ollama webui 有前后端打包一键跑
docker run -d --gpus=all ghcr.io/open-webui/open-webui:ollama
https://github.com/open-webui/open-webui?tab=readme-ov-file#installing-open-webui-with-bundled-ollama-support
发表于 2025-2-1 20:09 | 显示全部楼层
chip_discovery 发表于 2025-2-1 09:33
4090 24G 只能玩32B,70B需要43G显存

PS. 32B 要求显存20G,2080ti 22g 还挺快的

70b基于lamma的 32b基于qianwen的
70b不一定比32b优
发表于 2025-2-1 20:11 | 显示全部楼层
jihuan 发表于 2025-2-1 12:42
这个都不是R1吧 都是千问 拿R1蒸馏的


对的 真正的DeepSeek V3需要700多G显存
R1都是蒸馏其他大模型
发表于 2025-2-1 20:25 | 显示全部楼层
kkrace 发表于 2025-2-1 18:53
模型的大小基本上就是使用显存的大小,32b 也只是qwen2 的蒸馏,大约20G,4090能跑的极限, 纯CPU跑就看内 ...

买这配置,还不如租台阿里云的服务器划算
发表于 2025-2-1 20:30 | 显示全部楼层
您好!当前的时间是 **2023年10月5日 9:26**。如果您需要其他帮助,请随时告诉我!

>>> 我现在时间是2025年2月1日
<think>
好,用户说“我现在时间是2025年2月1日”,这显然是一个未来的时间点。

首先,我需要理解用户的意图。他可能是在测试我的时间和数据更新能力,或者想了解在特定未来日期下我能提供哪些帮助。

接着,我会考虑如何回应。我要确认他提供的日期,并表达我对未来的展望,同时表明我会尽力根据现有知识提供相关信息。

然后,我会思考是否需要进一步询问用户的具体需求,以便更好地帮助他。比如,他可能是在规划未来的事情,或者想了解某个领域
的未来发展情况。

最后,我决定以友好和支持的态度回应,确认时间并表示愿意在2025年提供帮助,同时保持开放姿态接受更多问题。
</think>

您好!如果您现在的时间是 **2025年2月1日**,这意味着您可能处于未来或者是在某个特定的时区中。如果您有需要了解的信息或
问题,请随时告诉我,我会尽力根据我的知识和能力为您提供帮助!


为什么DEEPSEEK 告诉我时间是2023 年呢?
 楼主| 发表于 2025-2-1 20:51 | 显示全部楼层
YsHaNg 发表于 2025-2-1 19:00
那你少了个ollama很强的前端 open webui是御用的 原名叫ollama webui 有前后端打包一键跑
docker run -d  ...

open webui昨天也尝试安装了,后来听说这个操作需要7*24小时运行,否则意义不大,我没什么外网访问家里主机的需求,就放弃了
 楼主| 发表于 2025-2-1 21:02 | 显示全部楼层
syringalibra 发表于 2025-2-1 14:24
LM基础版是免费的,资源占用来说应该差不多吧,LM适合大模型尝鲜,即开即用 ...

下午试了LM,但是安装之后搜索deepseek,能搜到的最大就是8b,而且还找不到怎么安装model
发表于 2025-2-1 22:03 来自手机 | 显示全部楼层
sometime 发表于 2025-2-1 12:30
您好!当前的时间是 **2023年10月5日 9:26**。如果您需要其他帮助,请随时告诉我!

>>> 我现在时间是2025 ...

自己配置联网搜索pse duckduckgo是免费的人
发表于 2025-2-1 22:09 | 显示全部楼层
loughlion 发表于 2025-2-1 21:02
下午试了LM,但是安装之后搜索deepseek,能搜到的最大就是8b,而且还找不到怎么安装model ...

用Ollama的性能釋放比LM Studio要好
另外Open WebUI你也可以用docker的形式部署在NAS或者路由器中
不過跑模型的機器是要長期開機了
发表于 2025-2-1 22:10 | 显示全部楼层
试过32b,和网上完全体差距太大了,呆的一笔
发表于 2025-2-1 22:10 | 显示全部楼层
AiReason 发表于 2025-2-1 10:41
我最想知道的是这几个蒸馏模型智力的区别有多大

和原版只能说不是一个东西
发表于 2025-2-1 22:11 | 显示全部楼层
CptQ 发表于 2025-2-1 13:19
通用小模型本地部署也就图个乐,低于32B的都太蠢了,时效性也差,而且大厂的本地模型也会有审查机制。
本地 ...

32都挺呆的,只能拿来做点翻译这类简单工作
发表于 2025-2-1 22:12 | 显示全部楼层
nickyos 发表于 2025-2-1 22:10
试过32b,和网上完全体差距太大了,呆的一笔

主要是看你怎麼使用。。。
而且本地版也沒那麼多內容限制
发表于 2025-2-1 22:39 | 显示全部楼层
我的配置和你差不多,5900x, 128G 3600, 4700ti super,同时用m1 pro 32G 和 m4 pro 48G进行测试。全部都是跑的32b
首先说一下,ollama直接可以调用macos的GPU,所以速度都比PC默认的快。

pc一定要装cuda toolkit才能开启gpu加速,提升一点速度。最后效果是 m4 mac > PC > m1 mac。

PS:m1 pro频繁用了3年多了,昨天问他几个问题,估计风扇转的圈比前几年加起来的都多。


发表于 2025-2-1 22:53 | 显示全部楼层
sometime 发表于 2025-2-1 20:30
您好!当前的时间是 **2023年10月5日 9:26**。如果您需要其他帮助,请随时告诉我!

>>> 我现在时间是2025 ...

因为没联网,LM的和chatbox的没法联网都这个样子。ollama+page assist打开联网就没问题。
发表于 2025-2-2 15:46 | 显示全部楼层
loughlion 发表于 2025-2-1 21:02
下午试了LM,但是安装之后搜索deepseek,能搜到的最大就是8b,而且还找不到怎么安装model ...

不会啊,我刚搜了,很多几百个gb的大模型啊

微信截图_20250202154552.jpg
 楼主| 发表于 2025-2-2 18:24 | 显示全部楼层
chh-carter 发表于 2025-2-2 15:46
不会啊,我刚搜了,很多几百个gb的大模型啊

微信图片_20250202182352.png
发表于 2025-2-2 22:30 | 显示全部楼层

模型搜索的是https://huggingface.co/,需要科学上网。或者改成镜像hf-mirror,网上搜一下有教程
发表于 2025-2-3 01:00 | 显示全部楼层
发表于 2025-2-3 13:09 | 显示全部楼层
Illidan2004 发表于 2025-2-1 20:11
对的 真正的DeepSeek V3需要700多G显存
R1都是蒸馏其他大模型

是1280g左右
发表于 2025-2-3 13:21 | 显示全部楼层

据说不需要跑16bit 跑8bit就是完整版 训练的时候好像就是8bit
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-26 04:38 , Processed in 0.013866 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表