找回密码
 加入我们
搜索
      
查看: 4413|回复: 23

[软件] 跟风在家用主力电脑上用了deepseek,正如坛友们所说

[复制链接]
发表于 2025-2-19 16:03 | 显示全部楼层 |阅读模式
deepseek太火了,全网的安装教程铺天盖地可见大家都想本地跑跑,软件也很傻瓜,lm studio或者ollama,直接下载搞搞就可以感受deepseek了,还可以试试无限制的模型写写小x文,自己主力机16G显存+32G内存,这个主流家用电脑跑deepseek感受下来:

1. 显存装的下的模型跑起来才舒服,速度有5x个token/s,再看看爆显存的模型只有8个token/s就很不爽了,看着那么多更大的模型有那么一瞬间想搞个大显存的卡来用了。

2. lm studio上满血deepseek尺寸有大几百G了,要想体验舒服,不上几十个token/s是不够的,看坛友讨论相对连接的廉价cpu+大内存方案只有几个token,cpu+gpu各跑一半效率,内存基本占满,这效率不上也罢。

3. 所谓无码模型、无倾向模型、**模型等等,个人无非是猎奇玩玩了,让AI写一段金庸和小龙女的xx场景,什么智能硬编都挺为难的

4. 模型那么多,有基于已有模型蒸馏的、有基于几位量化的、有面向编程的、有面向法律医疗的的,资源消耗根本没有尽头,个人真的要作为有效的辅助工具使用,只要关注现有手头硬件能跑的模型是否满足需要就够了,那些数笔画、问精确数字、量化等问题的讨论评估,对于这类基于统计、概率概念的AI模型来说完全是南辕北辙的做法,因为后者根本做不到,也没必要做到,能回答正确99%的常态化语言信息就已经是很好的工具了。
发表于 2025-2-19 16:17 | 显示全部楼层
金庸和小龙女的XX场景。。。
发表于 2025-2-19 16:32 来自手机 | 显示全部楼层
为啥本地部署,为了隐私?
发表于 2025-2-19 16:40 | 显示全部楼层
singfw 发表于 2025-2-19 16:17
金庸和小龙女的XX场景。。。

我最感兴趣的也是这一句
 楼主| 发表于 2025-2-19 16:46 | 显示全部楼层
chrisein 发表于 2025-2-19 16:40
我最感兴趣的也是这一句

你正好回答了上面哪位问为什么要本地部署,人性使然啊
发表于 2025-2-19 16:47 | 显示全部楼层
“金庸和小龙女的xx场景”多么小众的文字
发表于 2025-2-19 16:49 | 显示全部楼层
你这不叫deepseek模型,叫经过r1蒸馏的qwen

把蒸馏模型叫成deepseek r1,就像是把“硕士毕业的老师教学的初中毕业生”叫成“硕士生”一样搞笑
发表于 2025-2-19 16:50 | 显示全部楼层
本地部署主要是为了涩涩内容。这玩意儿智力低的时候,男女不分,没有记忆力。你不能用他一次性写超过100个字,否则基本就是胡说八道。
 楼主| 发表于 2025-2-19 16:51 | 显示全部楼层
04DVzr 发表于 2025-2-19 16:49
你这不叫deepseek模型,叫经过r1蒸馏的qwen

把蒸馏模型叫成deepseek r1,就像是把“硕士毕业的老师教学的 ...

其实叫啥都行,lm studio上这样显示的模型名称,有不同意见可以给lm studio反馈嘛
发表于 2025-2-19 16:52 | 显示全部楼层
a本地i。。。西嗨。。。
发表于 2025-2-19 17:05 | 显示全部楼层
70b包含 以下都不行
发表于 2025-2-19 22:30 | 显示全部楼层
想炒高显卡价格?
发表于 2025-2-20 00:17 | 显示全部楼层
本地的太弱鸡了。个人老实付费。
发表于 2025-2-20 08:38 | 显示全部楼层
金庸和小龙女的XX场景。。。
发表于 2025-2-20 08:44 | 显示全部楼层
请教,这个DS模型,在你的平台,能让他输出音频吗?
打个比方,我和DS语音聊天
发表于 2025-2-20 08:46 | 显示全部楼层
等前沿大佬们继续优化迭代吧!希望未来能像运行游戏一样,大部分资源可以不用一次性加载,那就再好不过了。
发表于 2025-2-20 09:24 | 显示全部楼层
采花郎 发表于 2025-2-20 08:44
请教,这个DS模型,在你的平台,能让他输出音频吗?
打个比方,我和DS语音聊天 ...

这个我理解不是模型的能力,或者说不需要是。
接一个TTS肯定有人做了,消耗也不会很大
 楼主| 发表于 2025-2-20 12:07 | 显示全部楼层
采花郎 发表于 2025-2-20 08:44
请教,这个DS模型,在你的平台,能让他输出音频吗?
打个比方,我和DS语音聊天 ...

你说的应该是类似豆包的语音直接交互的功能是吧,局限于我只装了ollama(命令行模式下的文字交互)和lm studio(比较方便的app,整合了文字交互、模型下载等功能),应该是没有直接语音输出的功能。

楼上网友提的我也认同,文字转语音不一定是ai的功能,有整合软件支持的话一定可以实现文字转语音。如果有多模态ai模型的话,是可以实现文字直接到语音数据输出的,只是deepseek模型应该不是多模态的,应该还是基于文字的。
 楼主| 发表于 2025-2-20 12:15 | 显示全部楼层
秦南瓜 发表于 2025-2-20 08:46
等前沿大佬们继续优化迭代吧!希望未来能像运行游戏一样,大部分资源可以不用一次性加载,那就再好不过了。 ...

这次全民大狂欢式的本地部署“大模型”,本质也是降低了硬件运行门槛,让更多人可以体验下相对以往接近openai水平的模型在本地运行的效果,cpu+gpu+内存可以一起上,比起以往只能gpu跑推理严重受限于显存大小。

应用这类ai模型的大前提还是:推理是基于训练好的模型参数+输入的计算结果,模型数据不一次加载,就变成了cpu+gpu+内存+nvme的模式,受限于又多了个硬盘速度和带宽限制,这推理速度不敢想啊
发表于 2025-2-20 12:59 | 显示全部楼层
powerduke 发表于 2025-2-20 12:15
这次全民大狂欢式的本地部署“大模型”,本质也是降低了硬件运行门槛,让更多人可以体验下相对以往接近op ...

让全民对ai的认知上一个台阶是好事。
硬件瓶颈总会有办法的,比如近期ktransformer。老百姓能负担得起跑671b了,10~14token,后面还会有更多优化

 楼主| 发表于 2025-2-20 13:09 | 显示全部楼层
秦南瓜 发表于 2025-2-20 12:59
让全民对ai的认知上一个台阶是好事。
硬件瓶颈总会有办法的,比如近期ktransformer。老百姓能负担得起跑6 ...

希望是双向奔赴,家用pc性能越来越强,模型越来越小越高效准确。

以后deepseek也可以成为steam上的免费一员,用来做benchmark也不是不行,内存小的用1.5B,大的无上限满血模型走起。
发表于 2025-2-20 13:14 | 显示全部楼层
采花郎 发表于 2025-2-20 08:44
请教,这个DS模型,在你的平台,能让他输出音频吗?
打个比方,我和DS语音聊天 ...

装一个page assist的chrome插件。
发表于 2025-2-20 13:28 | 显示全部楼层
我輩樹である 发表于 2025-2-20 13:14
装一个page assist的chrome插件。

这么简单就可以语音了?
发表于 2025-2-20 13:30 | 显示全部楼层
fairness 发表于 2025-2-20 13:28
这么简单就可以语音了?

你试试就知道了。stt tts 联网rag。

记得在设置里面改一下中文识别。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-26 12:14 , Processed in 0.011711 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表