2080ti 22g 还是 3080 20g
想玩本地AI,请问,2080ti 22g 还是 3080 20g,一块3080 20g 差不多在3900,一块2080ti 22g 在2200左右。amper多出来的tensor cores是不是更好用一些? 两块2080ti 22G会不会更好点[狂笑] 3080g 性能还是强一些的,还支持bf16,不过2080ti大2g显存也是优势,但是基本都是哥布林矿工了,要买注意买带保修的我就刚挂了一张2080ti 22g,还在和奸商battle 搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如果可以多卡的话,可以考虑用4080s或者5080实现高显存吗 入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到
LLM场景, 刚好可以跑qwen3 32B
但是速度太慢了 5-6 token/s, 应答一次分钟级, 本地测试可以
AI绘图场景, 应该挺好用的 3080 20G, 支持bf16,fa2, 2080ti 是否支持awq和sglang我有点忘了。单卡的话是个很好的选择,1年保的不需要3900吧,3700左右pdd,tb应该都有吧 steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到
LLM场景, 刚好 ...
降压超频吧。你用的什么推理框架,不至于这么慢吧。 aries910 发表于 2025-5-15 13:59
搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如 ...
可以多卡只是不支持p2p和nvlink,训练影响大,推理影响小。不存在提高显存,是多少就是多少,只是把模型的不同的层分配到不同的卡的显存里。 steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到
LLM场景, 刚好 ...
这玩意哪有全新,都是BGA核心显存一套搬板子的大修[生病] 真玩肯定3080 20 做好显存散热。要不然指定挂 aries910 发表于 2025-5-15 13:59
搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如 ...
您说的是sli吧,好像其实作用不大,好像现在推理框架支持多个pcie卡槽显卡 steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到
LLM场景, 刚好 ...
5-6 token/s 肯定是溢出到内存了 本地ai 推荐2080ti 22G *2
如果溢出到内存速度都差不多 本地Ai 建议2080TI 22 X2. 3080 20G改造成本太高了,成品卡还贵。如果文生图的话,3080 20G比2080TI会快一点,但是并不是快很多,两张卡我都有跑过图。 本帖最后由 scottbest 于 2025-5-15 18:07 编辑
2080Ti主要是架构问题,现在的一些流行的LLM模型量化格式不支持(**Q、AWQ、FP8),新算子不支持(使用旧算子效率差,显存占用高)。
对于LLM本地部署,推荐3090 24G x4或者4090 48G x4,否则不如调用API或者网页。
对于文生图(视频)/文生音/音转文的话,推荐单卡4090 48G。 要上32B模型的话,必须22g 如果你是用来做视频,比如自己训练人物LORA然后用来拍动作片,那就30系以上。
如果只是简单的跑下语言模型,那2080TI 22G也可以。 2系好多技术不支持,比如bf16,好多加速技术最低也是30系打底。如果你只跑1.5,sdxl影响不大。如果还要视频,flux之类,最低就是30系,玩起来肯定好很多。 真想玩本地还是建议4090 5090,到时候蒸馏模型用着不爽心痒痒又升级 2080ti大概就是3070的算力,不超频功耗倒不大,30系相比20系能耗比就没怎么提升,性能和功耗都同步提高了 scottbest 发表于 2025-5-15 18:00
2080Ti主要是架构问题,现在的一些流行的LLM模型量化格式不支持(**Q、AWQ、FP8),新算子不支持(使用旧算 ...
4090 48g太贵了。。。。 要三万 eliz 发表于 2025-5-16 09:52
4090 48g太贵了。。。。 要三万
没那么贵的,2.3-2.4左右 yueti55 发表于 2025-5-15 15:21
本地Ai 建议2080TI 22 X2. 3080 20G改造成本太高了,成品卡还贵。如果文生图的话,3080 20G比2080TI ...
佬 有没有具体的参考啊 我主要跑comfyui 用flux与sdxl的模型 ~
我现在就是2080ti 22g 有点慢 想换3080 20g 哈哈哈 ~ [可爱]
就是不知道能提升多少 ~ Amarillys 发表于 2025-5-15 13:28
3080g 性能还是强一些的,还支持bf16,不过2080ti大2g显存也是优势,但是基本都是哥布林矿工了,要买注意买 ...
无保有时候是挺头疼的 本帖最后由 yueti55 于 2025-6-3 09:35 编辑
331358996 发表于 2025-6-2 10:19
佬 有没有具体的参考啊 我主要跑comfyui 用flux与sdxl的模型 ~
我现在就是2080ti 22g 有点慢 想换3080 2 ...
文生图速度主要看GPU的基本AI性能靠硬实力,而文生图的图片分辨率和数量才看显存大小。
两个卡我都用过3080比2080TI快1/3.实际单张出图速度并没有决定性的大提升。批量出图会快一些,但是也没有达到倍数。512*512的图基本上2080TI是2.2秒,3080是1.6秒/张这样。
文生图除非是搞训练,其实没必要纠结大显存。基本上16G显存的卡就能用了,还是要看GPU核心性能来提升出图速度才是优先。。。建议换40 50系, 70TI以上级别,这样就在速度上有明显提升,而要完美运行FLUX SDXL,最好是两个90卡,但是成本太高了。 本地ai 推荐2080ti 22G *2,如果可以买俩公版 yueti55 发表于 2025-6-3 09:33
文生图速度主要看GPU的基本AI性能靠硬实力,而文生图的图片分辨率和数量才看显存大小。
两个卡我都 ...
OK 谢谢拉 ~
那就不考虑这个了
哈哈哈 去看看50系吧 [可爱] a010301208 发表于 2025-5-15 19:15
如果你是用来做视频,比如自己训练人物LORA然后用来拍动作片,那就30系以上。
如果只是简单的跑下语言模型 ...
噗,细说动作片。。。。 基本上真跑AI,大部分还是选2080ti 22g。 2080ti改22g只需要换显存,3080 20g要核心搬板。
2080ti 22g改起来很成熟了,我手里这块跑训练当驴使已经2年了,一切正常。
页:
[1]
2