九天御风 发表于 2024-4-2 22:46 有的 T5820 T7820 T7920 都有 |
wun_008 发表于 2024-4-2 22:59 可以 一个模型 可以拆分到不同的显卡去跑 ollama就可以用到多卡的性能 |
tinianchen 发表于 2024-4-3 10:05 7900xtx 跑大语言模型 兼容性不太好吧 游戏性能肯定远超2080ti 话说nas 上用7900不太合适吧 |
wun_008 发表于 2024-4-3 09:13 不如用山寨RTX5000改16g |
wun_008 发表于 2024-4-3 09:13 请教 用7900XTX 是否比2080TI快? |
rico19375 发表于 2024-4-3 09:07 要能叠加显存就好了,就再插一个 运行13b了,没有一个性价比高的学习卡 2080ti 22 也得2k5 太贵了 |
l8017379 发表于 2024-4-3 00:47 unraid docker 跑个ollama 能运行7b 模型 反正jellyfin 服务器 需要一个 p4 一卡多用 |
wun_008 发表于 2024-4-2 22:59 多卡不能叠加显存,只能并行跑不同的任务 |
wun_008 发表于 2024-4-2 22:59 叠不了,别想了,而且10系卡的ai运算速度感人吧,用20系的多好。。。 |
p4么?这张卡现在怎么这么贵?我nas上面插着一张,但是没有用。。。 |
两个p4 可以叠加显存吗 运行大预言模型 |
问题是前面有进风口吗 |
是不错,只要有风被吸过来 |
Archiver|手机版|小黑屋|Chiphell
( 沪ICP备12027953号-5 )310112100042806
GMT+8, 2025-7-4 21:25 , Processed in 0.011707 second(s), 10 queries , Gzip On, Redis On.
Powered by Discuz! X3.5 Licensed
© 2007-2024 Chiphell.com All rights reserved.