找回密码
 加入我们
搜索
      
查看: 1866|回复: 3

[显卡] 本地微调大模型,两块16g的显卡可行吗?

[复制链接]
发表于 2025-2-1 16:45 来自手机 | 显示全部楼层 |阅读模式
      目前的情况,只能自费购卡,想本地微调个专有领域的大模型做实验。两块16g的卡还是单卡32g好一些。目前已经有一块4070tis,不知道再买一块4070tis行不行,要是直接买一块5090d,感觉太贵了。前期做了一点功课,32g显存似乎也只能微调14b以下的参数量。有没有懂的朋友,我想寻求一些意见,谢谢了。
发表于 2025-2-1 17:04 | 显示全部楼层
本帖最后由 chesha1 于 2025-2-1 17:07 编辑

看起来你预算有限,那现在最有性价比的方式可能是:

1. 2080ti 22g 显存魔改版,买两块,买个 nvlink 桥连接,就有 44g 显存了

2. v100 16g(别买 32g 的,32g 的太贵),在买个 sxm2 4 卡底板,就有 64g 显存了

要是预算充足,单卡肯定比多卡好,多卡互联的带宽不足很难受的,而且多卡并行需要写的代码也比单卡多,需要调设置

当然你买 2 块 4070tis 也行,用 LoRA 微调 14b 模型显存也勉强够,要是显存实在不足可以看看别的微调技术,比如 Q-LoRA,65b 的模型用 Q-LoRA 微调也只需要 48g 显存
 楼主| 发表于 2025-2-1 17:19 来自手机 | 显示全部楼层
chesha1 发表于 2025-2-1 17:04
看起来你预算有限,那现在最有性价比的方式可能是:

1. 2080ti 22g 显存魔改版,买两块,买个 nvlink 桥连 ...

感谢感谢,确实是预算有限,这些东西都得自己整,买单卡就是能好操作一些,双卡并行就是代码操作多一些。
发表于 2025-3-21 14:30 | 显示全部楼层
RTX 2080 Ti的NVLink不支持显存池(显存共享)和CUDA核心叠加,仅支持单向通信,且桥接器与Quadro型号不兼容……https://metaso.cn/search/8591311 ... 8591311468777435136
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-27 18:10 , Processed in 0.012477 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表