找回密码
 加入我们
搜索
      
查看: 1883|回复: 19

[显卡] 想升级显卡,不知道选啥好,不为游戏。

[复制链接]
发表于 2025-3-21 07:09 | 显示全部楼层 |阅读模式
现在用的137K+D4 64G+2060 12G,原来一直够用,但是最近玩deepseek本地部署+ragflow,虽然我只是弄点书、论文,但还是觉得解析速度慢,以后还想玩玩酒馆,所以想要升级下显卡,不知道这个需求什么显卡最划算?各位20cm有没有推荐?尽量避开矿渣,魔改,我动手能力弱。
发表于 2025-3-21 07:20 | 显示全部楼层
价格合适的40系 16G显存以上版本,等等4070tis 价格崩呗
现在火山开个deepseek,免费token用完,再用付费的,不常用的话,可能显卡钱也省下了
发表于 2025-3-21 07:36 | 显示全部楼层
本地部署ai 起码4090或者5090吧 光显卡都不一定够 得换整机
发表于 2025-3-21 07:38 来自手机 | 显示全部楼层
可能Intel b580是不是更好的选择
发表于 2025-3-21 07:40 | 显示全部楼层
建议考虑使用频度或者说使用依赖度。

现在商用接入AI的太多了,研究下各个平台的服务质量和价格,看看买服务合适还是买显卡合适
发表于 2025-3-21 09:00 | 显示全部楼层
看级别就是发烧爱好者,除了3万的5090,其它你还有看上眼的吗?如果不是富哥,那就22500的电竞判客5090D。
 楼主| 发表于 2025-3-21 14:14 来自手机 | 显示全部楼层
xukai_286 发表于 2025-3-21 07:20
价格合适的40系 16G显存以上版本,等等4070tis 价格崩呗
现在火山开个deepseek,免费token用完,再用付费的 ...

看了下小黄鱼4070tis的价钱,我只能说都是传**
发表于 2025-3-21 14:29 来自手机 | 显示全部楼层
问就是b580因为现在其他卡都是贵得一逼。。。
 楼主| 发表于 2025-3-21 14:51 来自手机 | 显示全部楼层
genesisx 发表于 2025-3-21 14:29
问就是b580因为现在其他卡都是贵得一逼。。。

B580跑ollama+ragflow效果怎么样?有没有这方面的评测?
发表于 2025-3-21 15:01 | 显示全部楼层
loughlion 发表于 2025-3-21 14:14
看了下小黄鱼4070tis的价钱,我只能说都是传**

ts要5000多吗
发表于 2025-3-21 16:59 来自手机 | 显示全部楼层
4090 48GB
发表于 2025-3-21 17:06 | 显示全部楼层
不着急就等着呗,到618了算算券,看RX9070还是RTX5070哪个降得多更划算呗(玩DS本地部署就别考虑买游戏显卡了,还不如小黄鱼买两张A770交火折腾着耍耍算了
发表于 2025-3-21 18:31 | 显示全部楼层
loughlion 发表于 2025-3-21 14:14
看了下小黄鱼4070tis的价钱,我只能说都是传**

哈哈哈,其实4070也可以,我用4070在跑gemma3-12b,占用在10g显存左右,不过也跟你的prompt和具体的执行有关,所以16g安全点,有个12g,也不是不行

Screenshot 2025-03-21 182746.png
发表于 2025-3-21 18:54 | 显示全部楼层
这个用A卡能跑不
 楼主| 发表于 2025-3-21 19:55 | 显示全部楼层
xukai_286 发表于 2025-3-21 18:31
哈哈哈,其实4070也可以,我用4070在跑gemma3-12b,占用在10g显存左右,不过也跟你的prompt和具体的执行 ...

gemma3-12b,deepseek r1 32b,qwq我现在的配置也都能跑,显存占满之后就用内存,就是速度慢
发表于 2025-3-21 20:15 | 显示全部楼层
要多快?感觉还可以哈
真要满血版本,估计家用的卡都跑不动,这速度感觉已经非常快了,日常写点东西啥的,基本上是秒出了,每秒50个token左右,我还是在12500的CPU的虚拟机里跑的,虚拟的8核

Screenshot 2025-03-21 201139.png
Screenshot 2025-03-21 201428.png
 楼主| 发表于 2025-3-21 20:17 | 显示全部楼层
xukai_286 发表于 2025-3-21 20:15
要多快?感觉还可以哈
真要满血版本,估计家用的卡都跑不动,这速度感觉已经非常快了,日常写点东西啥的, ...

14b够快,但是32b就明显慢,从提问到开始反应,有时候得好几分钟。
发表于 2025-3-21 20:26 | 显示全部楼层
zs009 发表于 2025-3-21 18:54
这个用A卡能跑不

也不是不行,反正确实多了很多折腾,Ollama这种训练后量化严重依赖量化实现的库,CUDA和tensor core在这里有软硬件的优势,但我确实没试过速度会慢多少,但肯定能跑
发表于 2025-3-21 20:27 | 显示全部楼层
loughlion 发表于 2025-3-21 20:17
14b够快,但是32b就明显慢,从提问到开始反应,有时候得好几分钟。

32。。。就火山引擎吧,671b满血,还免费
 楼主| 发表于 2025-3-21 21:34 | 显示全部楼层
xukai_286 发表于 2025-3-21 20:27
32。。。就火山引擎吧,671b满血,还免费

有些不可描述的内容还是本地玩比较好
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-26 16:25 , Processed in 0.012582 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表