找回密码
 加入我们
搜索
      
查看: 989|回复: 17

[显卡] 2080ti 22g 还是 3080 20g

[复制链接]
发表于 2025-5-15 13:23 | 显示全部楼层 |阅读模式
想玩本地AI,请问,2080ti 22g 还是 3080 20g,一块3080 20g 差不多在3900,一块2080ti 22g 在2200左右。amper多出来的tensor cores是不是更好用一些?
发表于 2025-5-15 13:27 | 显示全部楼层
两块2080ti 22G会不会更好点
发表于 2025-5-15 13:28 | 显示全部楼层
3080g 性能还是强一些的,还支持bf16,不过2080ti大2g显存也是优势,但是基本都是哥布林矿工了,要买注意买带保修的
我就刚挂了一张2080ti 22g,还在和奸商battle
发表于 2025-5-15 13:59 | 显示全部楼层
搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如果可以多卡的话,可以考虑用4080s或者5080实现高显存吗
发表于 2025-5-15 14:09 | 显示全部楼层
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到

LLM场景, 刚好可以跑qwen3 32B

但是速度太慢了 5-6 token/s, 应答一次分钟级, 本地测试可以

AI绘图场景, 应该挺好用的
发表于 2025-5-15 14:09 | 显示全部楼层
3080 20G, 支持bf16,fa2, 2080ti 是否支持awq和sglang我有点忘了。单卡的话是个很好的选择,1年保的不需要3900吧,3700左右pdd,tb应该都有吧
发表于 2025-5-15 14:10 | 显示全部楼层
steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到

LLM场景, 刚好 ...

降压超频吧。你用的什么推理框架,不至于这么慢吧。
发表于 2025-5-15 14:11 | 显示全部楼层
aries910 发表于 2025-5-15 13:59
搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如 ...

可以多卡只是不支持p2p和nvlink,训练影响大,推理影响小。不存在提高显存,是多少就是多少,只是把模型的不同的层分配到不同的卡的显存里。
发表于 2025-5-15 14:11 | 显示全部楼层
steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到

LLM场景, 刚好 ...

这玩意哪有全新,都是BGA核心显存一套搬板子的大修
发表于 2025-5-15 14:40 | 显示全部楼层
真玩肯定3080 20 做好显存散热。要不然指定挂
 楼主| 发表于 2025-5-15 14:43 | 显示全部楼层
aries910 发表于 2025-5-15 13:59
搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如 ...

您说的是sli吧,好像其实作用不大,好像现在推理框架支持多个pcie卡槽显卡
发表于 2025-5-15 15:13 | 显示全部楼层
steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到

LLM场景, 刚好 ...

5-6 token/s 肯定是溢出到内存了
发表于 2025-5-15 15:16 | 显示全部楼层
本地ai 推荐2080ti 22G *2

如果溢出到内存速度都差不多
发表于 2025-5-15 15:21 | 显示全部楼层
本地Ai 建议2080TI 22 X2.        3080 20G改造成本太高了,成品卡还贵。如果文生图的话,3080 20G比2080TI会快一点,但是并不是快很多,两张卡我都有跑过图。
发表于 2025-5-15 18:00 | 显示全部楼层
本帖最后由 scottbest 于 2025-5-15 18:07 编辑

2080Ti主要是架构问题,现在的一些流行的LLM模型量化格式不支持(**Q、AWQ、FP8),新算子不支持(使用旧算子效率差,显存占用高)。
对于LLM本地部署,推荐3090 24G x4或者4090 48G x4,否则不如调用API或者网页。
对于文生图(视频)/文生音/音转文的话,推荐单卡4090 48G。
发表于 2025-5-15 19:08 | 显示全部楼层
要上32B模型的话,必须22g
发表于 2025-5-15 19:15 | 显示全部楼层
如果你是用来做视频,比如自己训练人物LORA然后用来拍动作片,那就30系以上。

如果只是简单的跑下语言模型,那2080TI 22G也可以。
发表于 2025-5-15 19:29 | 显示全部楼层
2系好多技术不支持,比如bf16,好多加速技术最低也是30系打底。如果你只跑1.5,sdxl影响不大。如果还要视频,flux之类,最低就是30系,玩起来肯定好很多。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-5-15 23:56 , Processed in 0.011659 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表