一定 发表于 2023-4-17 03:00

A100 语言模型服务器 求助

如题,小弟富哥同学想搞个服务器玩。我平时也是主要玩玩台式,对服务器那些一概不通,想来请教各位大大。

自己先看了些现成的Lambda 太贵了,淘汰。看来下老莱的视频,给显卡外加了风扇感觉可以。

我感觉富哥需求对于A100 远大于其他。(显卡不省钱,其他都省钱)他最近搞了工作室,我认为可以上个服务器之类,和A100 挺搭的。

小弟想问问,1. 有没有现成的没有显卡的服务器的例子可以参考下买了直接外加个显卡算了。2. 自己搞服务器,想嫖个服务器支架,cpu 主板之类的例子

提前感谢回答大佬!

voodoo2022 发表于 2023-4-17 08:03

看看下面这类合适否:

超微4124GS-TNR 双路AMD EPYC 8路GPU深度学习RTX3090 A100服务器

st1860 发表于 2023-4-17 09:08

7048/49GR

一定 发表于 2023-4-17 11:40

voodoo2022 发表于 2023-4-17 08:03
看看下面这类合适否:

超微4124GS-TNR 双路AMD EPYC 8路GPU深度学习RTX3090 A100服务器 ...

感谢 我去学习下

一定 发表于 2023-4-17 11:43

voodoo2022 发表于 2023-4-17 08:03
看看下面这类合适否:

超微4124GS-TNR 双路AMD EPYC 8路GPU深度学习RTX3090 A100服务器 ...

感觉大了,我估计他就放一张卡 玩玩的

一定 发表于 2023-4-17 11:43

st1860 发表于 2023-4-17 09:08
7048/49GR

感觉这个价格合适,怎么区分性能使用场景?

21mm 发表于 2023-4-17 16:13

a100 sxm接口的划算。
页: [1]
查看完整版本: A100 语言模型服务器 求助