eliz 发表于 2025-5-15 13:23

2080ti 22g 还是 3080 20g

想玩本地AI,请问,2080ti 22g 还是 3080 20g,一块3080 20g 差不多在3900,一块2080ti 22g 在2200左右。amper多出来的tensor cores是不是更好用一些?

认真丶对待 发表于 2025-5-15 13:27

两块2080ti 22G会不会更好点[狂笑]

Amarillys 发表于 2025-5-15 13:28

3080g 性能还是强一些的,还支持bf16,不过2080ti大2g显存也是优势,但是基本都是哥布林矿工了,要买注意买带保修的
我就刚挂了一张2080ti 22g,还在和奸商battle

aries910 发表于 2025-5-15 13:59

搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如果可以多卡的话,可以考虑用4080s或者5080实现高显存吗

steel911 发表于 2025-5-15 14:09

入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到

LLM场景, 刚好可以跑qwen3 32B

但是速度太慢了 5-6 token/s, 应答一次分钟级, 本地测试可以

AI绘图场景, 应该挺好用的

q3again0605 发表于 2025-5-15 14:09

3080 20G, 支持bf16,fa2, 2080ti 是否支持awq和sglang我有点忘了。单卡的话是个很好的选择,1年保的不需要3900吧,3700左右pdd,tb应该都有吧

q3again0605 发表于 2025-5-15 14:10

steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到

LLM场景, 刚好 ...

降压超频吧。你用的什么推理框架,不至于这么慢吧。

q3again0605 发表于 2025-5-15 14:11

aries910 发表于 2025-5-15 13:59
搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如 ...

可以多卡只是不支持p2p和nvlink,训练影响大,推理影响小。不存在提高显存,是多少就是多少,只是把模型的不同的层分配到不同的卡的显存里。

Z2227 发表于 2025-5-15 14:11

steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到

LLM场景, 刚好 ...

这玩意哪有全新,都是BGA核心显存一套搬板子的大修[生病]

MDC 发表于 2025-5-15 14:40

真玩肯定3080 20 做好显存散热。要不然指定挂

eliz 发表于 2025-5-15 14:43

aries910 发表于 2025-5-15 13:59
搭车问下,是不是30系列以后,40、50没办法搞多卡跑AI了(但是好像也有贩子卖4090、5090的多卡算力机)
如 ...

您说的是sli吧,好像其实作用不大,好像现在推理框架支持多个pcie卡槽显卡

装陈醋的酱油瓶 发表于 2025-5-15 15:13

steel911 发表于 2025-5-15 14:09
入了3080 20G过渡, 全新涡轮3k2左右, 风扇有启停, 声音不大, 但间歇性 1600转还是能感知到

LLM场景, 刚好 ...

5-6 token/s 肯定是溢出到内存了

装陈醋的酱油瓶 发表于 2025-5-15 15:16

本地ai 推荐2080ti 22G *2

如果溢出到内存速度都差不多

yueti55 发表于 2025-5-15 15:21

本地Ai 建议2080TI 22 X2.      3080 20G改造成本太高了,成品卡还贵。如果文生图的话,3080 20G比2080TI会快一点,但是并不是快很多,两张卡我都有跑过图。

scottbest 发表于 2025-5-15 18:00

本帖最后由 scottbest 于 2025-5-15 18:07 编辑

2080Ti主要是架构问题,现在的一些流行的LLM模型量化格式不支持(**Q、AWQ、FP8),新算子不支持(使用旧算子效率差,显存占用高)。
对于LLM本地部署,推荐3090 24G x4或者4090 48G x4,否则不如调用API或者网页。
对于文生图(视频)/文生音/音转文的话,推荐单卡4090 48G。

herbertyang 发表于 2025-5-15 19:08

要上32B模型的话,必须22g

a010301208 发表于 2025-5-15 19:15

如果你是用来做视频,比如自己训练人物LORA然后用来拍动作片,那就30系以上。

如果只是简单的跑下语言模型,那2080TI 22G也可以。

sd50pcs 发表于 2025-5-15 19:29

2系好多技术不支持,比如bf16,好多加速技术最低也是30系打底。如果你只跑1.5,sdxl影响不大。如果还要视频,flux之类,最低就是30系,玩起来肯定好很多。

zhuzongchao 发表于 2025-5-16 01:14

真想玩本地还是建议4090 5090,到时候蒸馏模型用着不爽心痒痒又升级

xustrive 发表于 2025-5-16 08:54

fengpc 发表于 2025-5-16 09:50

2080ti大概就是3070的算力,不超频功耗倒不大,30系相比20系能耗比就没怎么提升,性能和功耗都同步提高了

eliz 发表于 2025-5-16 09:52

scottbest 发表于 2025-5-15 18:00
2080Ti主要是架构问题,现在的一些流行的LLM模型量化格式不支持(**Q、AWQ、FP8),新算子不支持(使用旧算 ...

4090 48g太贵了。。。。 要三万

scottbest 发表于 2025-5-16 09:54

eliz 发表于 2025-5-16 09:52
4090 48g太贵了。。。。 要三万

没那么贵的,2.3-2.4左右

331358996 发表于 2025-6-2 10:19

yueti55 发表于 2025-5-15 15:21
本地Ai 建议2080TI 22 X2.      3080 20G改造成本太高了,成品卡还贵。如果文生图的话,3080 20G比2080TI ...

佬 有没有具体的参考啊 我主要跑comfyui 用flux与sdxl的模型 ~
我现在就是2080ti 22g 有点慢 想换3080 20g 哈哈哈 ~ [可爱]
就是不知道能提升多少 ~

natt 发表于 2025-6-2 10:31

Amarillys 发表于 2025-5-15 13:28
3080g 性能还是强一些的,还支持bf16,不过2080ti大2g显存也是优势,但是基本都是哥布林矿工了,要买注意买 ...

无保有时候是挺头疼的

yueti55 发表于 2025-6-3 09:33

本帖最后由 yueti55 于 2025-6-3 09:35 编辑

331358996 发表于 2025-6-2 10:19
佬 有没有具体的参考啊 我主要跑comfyui 用flux与sdxl的模型 ~
我现在就是2080ti 22g 有点慢 想换3080 2 ...

文生图速度主要看GPU的基本AI性能靠硬实力,而文生图的图片分辨率和数量才看显存大小。
   两个卡我都用过3080比2080TI快1/3.实际单张出图速度并没有决定性的大提升。批量出图会快一些,但是也没有达到倍数。512*512的图基本上2080TI是2.2秒,3080是1.6秒/张这样。


       文生图除非是搞训练,其实没必要纠结大显存。基本上16G显存的卡就能用了,还是要看GPU核心性能来提升出图速度才是优先。。。建议换40 50系, 70TI以上级别,这样就在速度上有明显提升,而要完美运行FLUX SDXL,最好是两个90卡,但是成本太高了。

MageHan 发表于 2025-6-3 09:36

本地ai 推荐2080ti 22G *2,如果可以买俩公版

331358996 发表于 2025-6-3 09:52

yueti55 发表于 2025-6-3 09:33
文生图速度主要看GPU的基本AI性能靠硬实力,而文生图的图片分辨率和数量才看显存大小。
   两个卡我都 ...

OK 谢谢拉 ~
那就不考虑这个了
哈哈哈 去看看50系吧 [可爱]

TincoJ 发表于 2025-6-3 10:03

a010301208 发表于 2025-5-15 19:15
如果你是用来做视频,比如自己训练人物LORA然后用来拍动作片,那就30系以上。

如果只是简单的跑下语言模型 ...

噗,细说动作片。。。。

robles 发表于 2025-6-3 10:49

基本上真跑AI,大部分还是选2080ti 22g。 2080ti改22g只需要换显存,3080 20g要核心搬板。
2080ti 22g改起来很成熟了,我手里这块跑训练当驴使已经2年了,一切正常。
页: [1] 2
查看完整版本: 2080ti 22g 还是 3080 20g