找回密码
 加入我们
搜索
      
查看: 2327|回复: 23

[软件] 群晖NAS的synology ai console没见有人讨论,分享下本地LLM设定

[复制链接]
发表于 2025-8-20 15:40 | 显示全部楼层 |阅读模式
本帖最后由 powerduke 于 2025-8-27 21:00 编辑

近期群晖NAS提醒升级synology ai console这个套件了,功能是导入LLM支持,目前支持的套件是synology office和mail plus最新版,原本以为只能选择内嵌支持的openai、google的llm,没想到可以支持本地部署的llm,搜了下网上也没有这方面的说明,可能群晖用户们以为都要用商业llm才行,所以给大家分享下方法,总结下来有两点结论:

1. synology ai console虽然只能选择有限的商业llm模型名称,但是实际调用上并没有类似api调用那样需要指定这个名称,这也让本地部署的模型可以随意使用。
2. 具备自定义llm域名的功能,可以指向内网Ip了。

或许本就是群晖留给用户的福利吧。



SNAG-0000.png
SNAG-0001.png
SNAG-0002.png
SNAG-0003.png

SNAG-0004.png
SNAG-0003.png
发表于 2025-8-20 16:25 | 显示全部楼层
隔壁威联通也把ai加入到本地数据搜索了,支持通用的api,可以用ai分析自己的办公文件了
 楼主| 发表于 2025-8-20 18:31 | 显示全部楼层
nas连接商用的llm还是不太放心
发表于 2025-8-20 18:55 来自手机 | 显示全部楼层
看见了,卡登录几次没成功就没再折腾了
明明一个新的app群晖居然这么低调,当时查官网都没找到说明
发表于 2025-8-20 20:08 | 显示全部楼层
powerduke 发表于 2025-8-20 10:31
nas连接商用的llm还是不太放心

能输url 自建ollama就行了 llama.cpp也可以
 楼主| 发表于 2025-8-20 21:12 | 显示全部楼层
可以关注下后续群晖如何在nas设备上发挥llm的能力咯,文件搜索、分析功能肯定是要上了
发表于 2025-8-23 13:27 | 显示全部楼层
请问ollama上跑的什么模型?
刚试了一下一直显示校验失败。
发表于 2025-8-23 13:38 | 显示全部楼层
因为不能支持DS的API我就没有折腾了
 楼主| 发表于 2025-8-23 14:13 | 显示全部楼层
airy 发表于 2025-8-23 13:27
请问ollama上跑的什么模型?
刚试了一下一直显示校验失败。


lm studio最新版 + qwen3 30B A3B

lm studio不验证key,所以随便填即可。
发表于 2025-8-23 17:22 | 显示全部楼层
tyy474 发表于 2025-8-20 16:25
隔壁威联通也把ai加入到本地数据搜索了,支持通用的api,可以用ai分析自己的办公文件了 ...

哪个产品支持了?
发表于 2025-8-23 18:36 | 显示全部楼层
lja046 发表于 2025-8-23 05:38
因为不能支持DS的API我就没有折腾了

DeepSeek自己的就是openai格式api
发表于 2025-8-23 19:34 | 显示全部楼层
powerduke 发表于 2025-8-23 14:13
lm studio最新版 + qwen3 30B A3B

lm studio不验证key,所以随便填即可。

搞定了 ~
发表于 2025-8-25 01:54 | 显示全部楼层
群晖最值得期待的是 synology meet,咨询了下明年三季度才能上
发表于 2025-8-25 09:25 | 显示全部楼层
这个思路好棒啊!
发表于 2025-8-25 10:14 | 显示全部楼层
基本上主流 LLM 服务提供商给的接口都是 OpenAI API 兼容的,所以只要你的本地客户端支持 OpenAI,基本都会允许你修改 OPENAI_BASE_URL 的,那么主流的模型你都可以接入了,不管是外部的 OpenAI/OpenRouter/DeekSeek 官方或者硅基流动等,亦或是本地的 Ollama 和 vLLM,你都可以接入。不仅仅是群晖,其他客户端也是一样道理。

当然不同的模型会有细微参数上的区别和限制,但是大多数人都不会碰到。
发表于 2025-8-26 14:26 | 显示全部楼层
ihainan 发表于 2025-8-25 10:14
基本上主流 LLM 服务提供商给的接口都是 OpenAI API 兼容的,所以只要你的本地客户端支持 OpenAI,基本都会 ...

但是不支持自定义Model的话,像是Deepseek也是用不了的吧
发表于 2025-8-26 14:56 | 显示全部楼层
Yuusha 发表于 2025-8-26 14:26
但是不支持自定义Model的话,像是Deepseek也是用不了的吧

嗷对,自定义 Model,不过一般来说支持 OPENAI_BASE_URL,也会支持自定义 Model Name 的,除非铁了心就是不让你用其他服务…比较少我觉得。
发表于 2025-8-26 14:56 | 显示全部楼层
用着6.2的版本,不升级是永远没指望了。
发表于 2025-8-26 15:38 | 显示全部楼层
期待 关注!
发表于 2025-8-26 21:24 | 显示全部楼层
Yuusha 发表于 2025-8-26 06:26
但是不支持自定义Model的话,像是Deepseek也是用不了的吧

新建模型卡随便取个名对应到g pt模型名上
发表于 2025-8-27 16:47 | 显示全部楼层
YsHaNg 发表于 2025-8-23 18:36
DeepSeek自己的就是openai格式api

对,但是选择模型的时候只有Openai的模型
发表于 2025-8-27 16:52 | 显示全部楼层
本帖最后由 YsHaNg 于 2025-8-27 08:54 编辑
lja046 发表于 2025-8-27 08:47
对,但是选择模型的时候只有Openai的模型


看楼上 自己都host还不是随便改 比如ollama create 云厂商api可以用https://www.litellm.ai/ 转 也是能换名字的
发表于 2025-8-27 16:58 | 显示全部楼层
ihainan 发表于 2025-8-26 06:56
嗷对,自定义 Model,不过一般来说支持 OPENAI_BASE_URL,也会支持自定义 Model Name 的,除非铁了心就是 ...

我直接套娃
IMG_1584.jpeg
 楼主| 发表于 2025-8-27 20:58 | 显示全部楼层
受到楼上网友修改本地模型的名称的启发,发现还有最简单的方法,lm studio 加载模型时候修改为想要的名称就行了

SNAG-0004.png
SNAG-0003.png
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-8-29 02:41 , Processed in 0.011651 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表