找回密码
 加入我们
搜索
      
查看: 3295|回复: 21

[显卡] 个人准备本地部署DS+RAGFLOW知识库,求显卡推荐

[复制链接]
发表于 2025-2-19 23:30 | 显示全部楼层 |阅读模式
本人现在电脑I7-8700+32G内存+6700XT(12G),布置了ollama deepseek-r1:8b,单纯是用DS还行,但是要结合知识库感觉非常非常的慢(Docker运行服务都要几分钟,登录界面约10分钟才能登录)。而且目前想用ollama蒸馏的14b的模型,想干脆就重新配一台9700X的平台,把现有的给老爸拿去玩耍AI。所以想问问大家对显卡的意见。或者直接用API形式。
发表于 2025-2-20 00:04 | 显示全部楼层
ollama的话,用page assist来配合使用即可,而且还支持网络搜索
发表于 2025-2-20 00:10 | 显示全部楼层
本地部署8B没意义啊,这个尺寸的蠢得很,而且嵌入模型之类的都对显卡有要求。
你不如去连硅基流动,70B的100Wtoken才4块钱,你搞一张卡几千块花在API上都能让你玩到腻了
 楼主| 发表于 2025-2-20 01:15 来自手机 | 显示全部楼层
llzzll 发表于 2025-2-20 00:10
本地部署8B没意义啊,这个尺寸的蠢得很,而且嵌入模型之类的都对显卡有要求。
你不如去连硅基流动,70B的10 ...

这也是在考虑的范围中,主要看 7900xt 这样的显卡,跑 32b 挺快的,虽然是蒸馏版本的还是有点心动
 楼主| 发表于 2025-2-20 01:15 来自手机 | 显示全部楼层
网仙 发表于 2025-2-20 00:04
ollama的话,用page assist来配合使用即可,而且还支持网络搜索

目前就是这样配合的
发表于 2025-2-20 01:30 来自手机 | 显示全部楼层
你关它干啥 ollamadocker化跑服务一直在内存里 open webui传知识库用第二个embedding model
发表于 2025-2-20 09:32 | 显示全部楼层
网仙 发表于 2025-2-20 00:04
ollama的话,用page assist来配合使用即可,而且还支持网络搜索

PA知识库不行。
发表于 2025-2-20 09:33 | 显示全部楼层
ragflow和dify,哪个好用?
 楼主| 发表于 2025-2-20 09:56 | 显示全部楼层
gfwen0 发表于 2025-2-20 09:33
ragflow和dify,哪个好用?

只用过RAG而且现在部署还有问题,解析上传文件后,去对话,连接本地的DS会出错。环境变量我也改了的,端口也没有动过,今天回去准备重新部署下
发表于 2025-2-21 14:34 | 显示全部楼层
建议硅基流动充值后使用API访问满血R1 pro,挂BAAI/bge-m3本地知识库模型,性价比秒杀
发表于 2025-2-21 14:40 | 显示全部楼层
本地跑有什么优势吗?怎么大家都想要搞下来本地跑
发表于 2025-2-21 15:09 | 显示全部楼层
本地自用除非你用来突破伦理限制搞颜色,不然一律鉴定为闲得慌,直接阿里云、字节买API次数便宜的很,还能随时用最新的大模型
发表于 2025-2-21 15:17 | 显示全部楼层
我直白点说

本地跑要么为了搞黄色或者突破一般伦理认知的内容,不然买API划算的多

又不是公司老板一看拍脑袋部署下来政治任务

70B也就坎坎够用,最性价比也要3张2080ti 22g。。当下2080ti 22g都给买涨了。。
 楼主| 发表于 2025-2-21 21:54 | 显示全部楼层
galfood 发表于 2025-2-21 14:34
建议硅基流动充值后使用API访问满血R1 pro,挂BAAI/bge-m3本地知识库模型,性价比秒杀 ...

目前是这样做的,API确实便宜的多
 楼主| 发表于 2025-2-21 21:55 | 显示全部楼层
pooChai 发表于 2025-2-21 14:40
本地跑有什么优势吗?怎么大家都想要搞下来本地跑

没啥优势据我目前了解的情况,除非你长期断网,不然真没必要本地部署
发表于 2025-2-21 22:18 | 显示全部楼层
galfood 发表于 2025-2-21 14:34
建议硅基流动充值后使用API访问满血R1 pro,挂BAAI/bge-m3本地知识库模型,性价比秒杀 ...

R1 pro有什么优势?跟非pro比。上下文大小?tokens性能?
 楼主| 发表于 2025-2-22 01:10 来自手机 | 显示全部楼层
galfood 发表于 2025-2-21 14:34
建议硅基流动充值后使用API访问满血R1 pro,挂BAAI/bge-m3本地知识库模型,性价比秒杀 ...

但是有个问题,我总觉得这个满血版不是真满血。思考的过程和回答的问题感觉就稍微好于我部署的本地 8b,有时候甚至还不如。DS 官网啥时候才解禁 api 啊🤔还是那个好用
 楼主| 发表于 2025-2-22 01:11 来自手机 | 显示全部楼层
最美时光 发表于 2025-2-21 22:18
R1 pro有什么优势?跟非pro比。上下文大小?tokens性能?

感觉非 pro 像阉割的,或者调教的不好,最大的差别是慢,因为非 pro 很多人是推广换来的 token
发表于 2025-2-22 12:11 | 显示全部楼层
lja046 发表于 2025-2-22 01:10
但是有个问题,我总觉得这个满血版不是真满血。思考的过程和回答的问题感觉就稍微好于我部署的本地 8b, ...

这个还真不好量化,同一个模型,同一个问题,出来的答案也不一定相同,你可以多试几个比较一下
发表于 2025-2-22 12:12 | 显示全部楼层
最美时光 发表于 2025-2-21 22:18
R1 pro有什么优势?跟非pro比。上下文大小?tokens性能?

Pro是充值才能使用,非Pro可以使用赠送的token
发表于 2025-2-22 12:13 | 显示全部楼层
lja046 发表于 2025-2-22 01:11
感觉非 pro 像阉割的,或者调教的不好,最大的差别是慢,因为非 pro 很多人是推广换来的 token  ...

主要是分配的资源不同,非Pro可以使用赠送的token,所以基本上现在是硅基流不动
发表于 2025-2-22 12:16 | 显示全部楼层
7900XTX X2
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-26 11:15 , Processed in 0.010966 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表