找回密码
 加入我们
搜索
      
楼主: vistb

[显卡] 关于2080TI魔改22G的稳定性

[复制链接]
发表于 2023-5-18 15:08 来自手机 | 显示全部楼层
戴尔散热怎么样,
发表于 2024-6-3 14:33 | 显示全部楼层
老哥最后买了吗 在谁家买的?
 楼主| 发表于 2024-6-3 16:45 | 显示全部楼层
癞癞 发表于 2024-6-3 14:33
老哥最后买了吗 在谁家买的?

没买,还是老老实实的用11g的……
发表于 2024-6-3 18:07 | 显示全部楼层
vistb 发表于 2023-3-23 16:04
2080ti是小黄鱼上收的,价格2000出头吧。有点贵,不过据说是无尘机房下架的,收到以后再看看成色咋样。 ...

我两年前收的2080ti 1800,就是dell 无尘机房下架的,回来装上玩了几天有点花屏,给b站 修电脑的张哥修的,换了一颗显存他也没说修了啥,我看出来的。完了个把月没啥问题,带4K 144玩吃鸡负载100,换成3080ti了,现在闲置
发表于 2024-6-17 13:30 | 显示全部楼层
Hockheim 发表于 2023-3-24 18:11
我找靓女改的,不知道是不是第一个,虽说搞了快2周才好,但她还是很负责的。目前暂时稳定。 ...

一年了使用体验怎么样,最近也想改2070的显存,怕不稳定爆了
发表于 2024-6-17 13:44 | 显示全部楼层
勇少 发表于 2023-3-22 19:41
没有HDMI2.1…感觉就差点意思了

没有HDMI2.1有会什么差别?
发表于 2024-6-17 14:03 | 显示全部楼层
vistb 发表于 2023-3-23 14:01
哦,方便细说一下?搬板凳想听小故事,哈哈

靓女就算了,就喜欢盖白布,实际上有些可以修的。
发表于 2024-7-24 00:05 | 显示全部楼层
mark Mark mark
发表于 2025-5-2 22:07 | 显示全部楼层
unwarsky 发表于 2023-3-23 15:24
我现在就拿原装2080Ti玩
512x768 hiresfix2倍出原图 然后roll出了想要的图再mutidiffusion二次放大
麻烦点  ...

不懂就问,一直想搞两张vGPU计算卡插服务器上跑Stable Diffusion画色图大姐姐,但不知选哪款显卡性价比好,原本看上了Tesla P40,优势是显存容量诱人,但有人说这卡速度慢的要死。后来看到有文章说Tesla P100更好,优势是半精度浮点运算性能高,这一点对运行AI模型很重要,看你回帖中说2080Ti 11G就玩儿了,我是要在ESXi虚拟化环境下将vGPU计算显卡资源分配给虚拟机用来跑Stable Diffusion的,所以必须用NVIDIA Tesla系列显卡。网上查了一下,貌似与2080Ti架构参数对应的是Tesla T4,按我这需求,不知该怎么选了。另外再请教一个问题,目前SDXL支持多显卡作业吗?
发表于 2025-5-2 22:12 | 显示全部楼层
红色狂想 发表于 2025-5-2 22:07
不懂就问,一直想搞两张vGPU计算卡插服务器上跑Stable Diffusion画色图大姐姐,但不知选哪款显卡性价比好 ...

跑SD最低也得是20系,10系不支持半精度24G显存就等于20系的12G,没有tensor单元速度慢很多
发表于 2025-5-2 22:13 | 显示全部楼层
红色狂想 发表于 2025-5-2 22:07
不懂就问,一直想搞两张vGPU计算卡插服务器上跑Stable Diffusion画色图大姐姐,但不知选哪款显卡性价比好 ...

vGPU需要另外买授权
发表于 2025-5-2 22:13 | 显示全部楼层
画啥图啊,折腾半天浪费时间浪费钱,不如玩点游戏打发时间。
发表于 2025-5-2 22:18 | 显示全部楼层
fengpc 发表于 2025-5-2 22:12
跑SD最低也得是20系,10系不支持半精度24G显存就等于20系的12G,没有tensor单元速度慢很多 ...

那Tesla T4就属于20系的卡吧?
发表于 2025-5-2 22:22 | 显示全部楼层
fengpc 发表于 2025-5-2 22:13
vGPU需要另外买授权

nVIDIA vGPU License可以本地部署,我有40个永久授权,以前搞了一张Tesla P4玩儿过。
发表于 2025-5-2 22:56 | 显示全部楼层
红色狂想 发表于 2025-5-2 22:07
不懂就问,一直想搞两张vGPU计算卡插服务器上跑Stable Diffusion画色图大姐姐,但不知选哪款显卡性价比好 ...

前面的不清楚,多卡的话好像只能开多个程序分别生成,而且得折腾折腾
发表于 2025-5-2 23:32 | 显示全部楼层
23年中买的魔改2080ti 22g,用到现在一切正常。

经常满负荷跑深度学习炼丹,时不时玩玩微软模拟飞行,最近玩天国拯救2,基本上都是满载。
发表于 2025-5-3 00:49 | 显示全部楼层
4090都进厂改48GB了,应该问题不大。
发表于 2025-5-3 03:25 | 显示全部楼层
maxreni 发表于 2023-3-23 14:10
我推荐智强显卡工作室, 我们烧掉的凄惨红,他挖洞飞线补点之后一直稳定服役 ...

这老哥纯纯的赛博华佗,飞线的时候手稳的跟CNC一样。
发表于 2025-5-3 08:46 | 显示全部楼层
我有一片,咸鱼找个小哥改的,目前在2奶机服役,安静稳定。 多批次跑图是一绝啊,跑AI也能32b到十几TK。如果同时有这两个需求,这个卡就是目前性价比最高的,没有之一。
发表于 2025-5-3 10:04 | 显示全部楼层
红色狂想 发表于 2025-5-2 22:22
nVIDIA vGPU License可以本地部署,我有40个永久授权,以前搞了一张Tesla P4玩儿过。 ...

是破解得到的永久授权么?
发表于 2025-5-3 14:41 | 显示全部楼层
gdsd 发表于 2025-5-3 10:04
是破解得到的永久授权么?

它这个东西也不能称为破解,因为NVIDIA的正版也是要联网授权的,你想象成类似微软的KMS激活就行了,nVIDIA vGPU License这套软件是要安装部署到一台服务器上的,有人把授权密钥文件8a50130cae06(vdws 40) .bin导了出来,自己在本地内网中部署好Licserver服务端,导入 .bin授权文件,就能无限使用了,前提是不要接入互联网,Licserver服务器必须位于内网中,使用时任何内网中安装了Tesla系列显卡的机器,只要在NVIDIA显卡驱动软件授权许可面板选项中将许可证服务器网关IP地址和端口号指向Licserver服务地址就授权激活了,续约期限类似DHCP服务器,到期会自动续约,所以就永久授权了,我也是在小黄鱼上买的,当时花了50大洋,现在便宜得很,最新版驱动稍贵一些。
发表于 2025-5-3 18:28 | 显示全部楼层
红色狂想 发表于 2025-5-2 22:18
那Tesla T4就属于20系的卡吧?

T4是TU104 GPU,75W的卡不带外置供电性能差了点,2080ti 22G性价比高
发表于 2025-5-3 18:31 | 显示全部楼层
robles 发表于 2025-5-2 23:32
23年中买的魔改2080ti 22g,用到现在一切正常。

经常满负荷跑深度学习炼丹,时不时玩玩微软模拟飞行,最近 ...

我们有两张2080ti 22g涡轮卡炼丹用了两年还好好的,耕升/影驰版本散热器纯铜的散热最好,MSI的散热明显就缩水了整个卡轻很多温度也高
发表于 2025-5-3 22:16 | 显示全部楼层
换硅脂手残,然后再靓女那里修订,就是广西有点远,也有点慢,前后花了2礼拜。
发表于 2025-5-3 22:35 | 显示全部楼层
fengpc 发表于 2025-5-3 18:28
T4是TU104 GPU,75W的卡不带外置供电性能差了点,2080ti 22G性价比高

是的,2080Ti的确是目前AI画图最具性价比的选择,但魔改22G版总让我感到不安全,我只能接受原厂卡。而且我的应用场景是ESXi虚拟化环境下将vGPU资源分配给虚拟机用跑SDXL,所以必须用Tesla系列的显卡。Tesla T4的优势在于低功耗密集部署。不过SDXL不支持多GPU协作并行计算,插在多T4也没意义,还是等等上Tesla V100吧
Tesla T4与RTX 20系列对比分析
NVIDIA Tesla T4不属于GeForce RTX 20系列显卡,但它与20系列显卡同属于Turing架构,并支持Tensor Core单元。以下是详细分析:

1. Tesla T4与RTX 20系列的关系
・架构相同,定位不同
  Tesla T4基于Turing架构(TU104核心),与GeForce RTX 20系列(如RTX 2060/2070)共享同一代架构。然而,T4属于专业计算卡(Tesla系列),专为数据中心、AI推理和虚拟化场景设计,而RTX 20系列是面向消费级市场的游戏显卡。

・规格差异
  CUDA核心:T4拥有2560个CUDA核心,介于RTX 2060(1920个)和RTX 2070(2304个)之间。
  显存:T4配备16GB GDDR6显存,远超RTX 20系列的6-8GB,适合大模型推理和虚拟化。
  功耗:T4的TDP仅70W,远低于RTX 2070的175W,适合服务器密集部署。

2. Tensor Core的支持
・专用Tensor Core加速AI推理
  Tesla T4搭载了320个Tensor Core,支持多种精度计算(FP16/FP32/INT8/INT4),尤其在INT8模式下可提供高达130 TOPS的算力,显著优化深度学习推理性能。

・与消费级显卡的对比
  RTX 20系列虽也支持Tensor Core,但其设计更偏向图形渲染和光线追踪(RT Core),而T4的Tensor Core针对AI推理和计算任务进行了专门优化,例如支持更低精度(如INT4)和更高的并发推理吞吐量。

3. 适用场景与限制
・优势领域
  Tesla T4在以下场景表现突出:
  AI推理:如自然语言处理(NLP)、计算机视觉模型的部署。
  虚拟化:支持NVIDIA vGPU技术,允许多个虚拟机共享显卡资源。
  视频编解码:可同时解码38路高清视频流,适合流媒体服务。

・不推荐场景
  游戏:缺乏游戏驱动优化,实际游戏性能低于同规格消费级显卡。
  深度学习训练:FP32性能较弱(8.1 TFLOPS),建议使用A100或RTX 3090等更高性能显卡。

总结
・架构归属:Tesla T4与GeForce RTX 20系列同属Turing架构,但属于专业计算卡系列,并非消费级20系显卡。
・Tensor Core支持:明确支持Tensor Core,且在AI推理场景中性能显著优于同代消费级显卡。
・定位差异:T4的核心价值在于低功耗、大显存和专业计算优化,而RTX 20系列更侧重图形渲染与游戏性能。
发表于 2025-5-3 22:51 | 显示全部楼层
unwarsky 发表于 2025-5-2 22:56
前面的不清楚,多卡的话好像只能开多个程序分别生成,而且得折腾折腾

为什么时至今日Stable Diffusion XL最新版还不支持多显卡协同作业,难道这款AI创作工具仅面向个人小众市场吗?
Stable Diffusion XL(SDXL)作为当前开源图像生成模型的标杆,尚未支持多显卡协同作业(Multi-GPU Parallelism)的原因涉及技术架构、开发策略、市场需求等多个维度。以下从技术限制、用户定位、开发优先级等角度综合分析:

1. 技术架构与实现复杂度
・模型并行化难度:SDXL基于扩散模型(Diffusion Model),其推理过程需要逐步骤去噪生成图像,这种串行特性天然限制了多显卡并行计算的效率提升。尽管训练阶段可通过数据并行(Data Parallelism)加速,但推理阶段的实时生成难以拆分到多卡协同。

・显存与通信瓶颈:多卡协同需将模型参数分配到不同显卡,并通过高速总线(如NVLink)同步数据。SDXL模型参数量庞大(如基础模型35亿参数),显存占用高,普通用户的多卡配置可能因显存不足或通信延迟而无法有效利用。

・框架支持有限:SDXL依赖PyTorch等框架,而PyTorch对多卡推理的优化更多面向训练场景,推理阶段的动态资源分配和负载均衡仍不成熟。例如,用户尝试通过CPU加速(如IPEX技术)反而比多卡部署更易实现。

2. 用户定位与市场需求
・个人用户主导:SDXL的设计初衷是“在民用级显卡上运行”,主要服务于个人创作者和小型团队。多数用户硬件配置为单显卡(如RTX 3060 12GB),多卡需求集中于极少数专业工作室或企业用户。

・企业级替代方案:企业用户更倾向于使用云服务(如京东云GPU实例、阿里云TDX节点池),通过分布式计算和弹性资源扩展解决算力需求,而非依赖本地多卡部署89。例如,阿里云g8i实例通过CPU加速策略即可实现接近GPU的推理效率。

・社区生态适配:SDXL的开源生态(如WebUI、ControlNet插件)主要优化单卡体验,插件开发者更关注功能扩展(如高清修复、姿势控制),而非底层硬件协同。

3. 开发优先级与资源分配
・性能优化方向:Stability AI及社区开发者近期聚焦于提升单卡生成质量与速度,例如:
  模型轻量化:通过量化、剪枝降低显存占用(如4GB显存用户可通过高分辨率修复插件生成高清图)。
  算法改进:引入两阶段生成(基础模型+Refiner)、多宽高比训练等,直接提升输出质量。
  跨平台适配:优化CPU推理、移动端部署(如通过IPEX技术加速Intel CPU)。

・多卡支持收益低:对于大多数用户,单卡性能已能满足日常需求(如RTX 4090生成1024x1024图像仅需数秒),多卡协同的边际效益不足以覆盖开发成本。

4. 未来可能性与替代方案
・技术突破:若扩散模型的并行算法取得进展(如异步去噪、分层生成),多卡支持可能成为现实。部分研究团队已在探索分布式推理框架,但尚未成熟。

・企业级定制:商业公司可基于SDXL源码二次开发,例如Playground V2通过微调和模块扩展提升性能(如使用更大UNet主干),但未涉及多卡协同。

・云端分布式方案:用户可通过Kubernetes集群管理多节点推理(如阿里云ACK集群),间接实现“多卡协同”,但这属于基础设施层解决方案,非SDXL原生功能。

总结
SDXL暂不支持多显卡协同作业的核心原因在于技术复杂度高、用户需求有限、开发资源倾斜于单卡优化。其定位仍以个人和小团队为主,企业用户则通过云端算力扩展需求。未来若社区或商业版本出现分布式推理框架,可能会填补这一空白,但目前并非开发优先级。对于急需多卡性能的用户,建议采用云服务或等待技术突破。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-5-4 17:34 , Processed in 0.013996 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表