Amarillys 发表于 2025-5-26 21:16

solder 发表于 2025-5-26 11:31
24g这种,我一张12g插显卡槽,另一张插pcie4*4,都是40系的能相当于24g吗?

跑生成图片和视频不行,跑llm推理可以

solder 发表于 2025-5-26 21:27

Amarillys 发表于 2025-5-26 21:16
跑生成图片和视频不行,跑llm推理可以

推理,文字相关吗?比如写小说?
那种听说要380G内存或显存才能满血?

kaixin_chh 发表于 2025-5-26 22:34

a010301208 发表于 2025-5-26 10:39
贵了,A100,2块3一小时,量大优惠,而且这只是正常价格,没算上用特殊手段薅羊毛

...

卧槽这个价格,电费都不够吧。csp怎么挣钱啊

a010301208 发表于 2025-5-26 22:38

gyc 发表于 2025-5-26 20:14
什么平台?

之前楼下面不是发了[偷笑]

a010301208 发表于 2025-5-26 22:39

kaixin_chh 发表于 2025-5-26 22:34
卧槽这个价格,电费都不够吧。csp怎么挣钱啊

[偷笑]

a010301208 发表于 2025-5-26 22:39

baoziking 发表于 2025-5-26 18:34
这是哪里,我挺感兴趣玩儿一下的。

看25楼

Amarillys 发表于 2025-5-26 23:03

solder 发表于 2025-5-26 21:27
推理,文字相关吗?比如写小说?
那种听说要380G内存或显存才能满血?

是的,非常大参数的模型是要很高的内存或者显存的,但是也有一些小的模型,比如24B 32B的,也值得一玩

gmlee1999 发表于 2025-5-27 09:22

gyc 发表于 2025-5-26 20:14
4060 不是只有8G的吗?

打错了 是4060TI[傻笑]

chs 发表于 2025-5-27 09:50

a010301208 发表于 2025-5-26 11:37
训练可以多卡,生成只能单卡

生成可以多卡呀……vllm?

但多型号的显卡混用……坑会很大。

mdeu 发表于 2025-5-27 10:47

gyc 发表于 2025-5-26 20:29
可以考虑,不过长期租,也不便宜, 一年下来接近2W,

我的意思是,线上可以看下你具体真需要什么显卡再选....

现在一堆人在那制造焦虑,其实不一定需要太大显存的....

gyc 发表于 2025-5-27 12:59

mdeu 发表于 2025-5-27 10:47
我的意思是,线上可以看下你具体真需要什么显卡再选....

现在一堆人在那制造焦虑,其实不一定需要太大显存 ...

哦,好的, 我试试看

a010301208 发表于 2025-5-27 13:08

chs 发表于 2025-5-27 09:50
生成可以多卡呀……vllm?

但多型号的显卡混用……坑会很大。

昨天楼上推荐的那个不错,可惜目前局限还是不少,昨天玩了会今天还是换回之前的了,还是多卡分开同时跑不同的流程比较好[偷笑]

l泰然处之01 发表于 2025-5-27 18:11

这入门有点高端。。。我是从 T4 16G双卡 到 4060Ti 16G四卡 到 4070TiS 16G四卡 再到的选项里的 4090 48G双卡。。。

eliz 发表于 2025-5-27 19:10

感觉买个3080 20g性价比挺高的

楼主的马甲 发表于 2025-5-27 20:29

本帖最后由 楼主的马甲 于 2025-5-27 20:32 编辑

zhuifeng88 发表于 2025-5-26 14:17
? 大半video模型你在说什么...

为毛赶脚你就是秋叶大佬啊
[偷笑]
话说现在自己家的AMD还不能布署GEMMA3吧?

zhuifeng88 发表于 2025-5-27 22:51

楼主的马甲 发表于 2025-5-27 20:29
为毛赶脚你就是秋叶大佬啊

话说现在自己家的AMD还不能布署GEMMA3吧?

那讲道理显然不是, 倒不如说我不知道你在指哪个
至于amd gemma3...随便跑啊,哪怕mi50这种刚刚eol的vllm都还能跑起来gemma3, 只是性能稀烂完全没有实用意义了

smileghj 发表于 2025-5-27 23:27

awpak78 发表于 2025-5-26 10:16
打游戏就打游戏
学AI这种借口骗骗父母和导师就行了,没必要拿到chh来骗哥们



[狂笑]

porsche4me 发表于 2025-5-27 23:40

难道不是MacMini m4 pro 64G RAM是最便宜的选择吗? :)

gyc 发表于 2025-5-28 08:25

l泰然处之01 发表于 2025-5-27 18:11
这入门有点高端。。。我是从 T4 16G双卡 到 4060Ti 16G四卡 到 4070TiS 16G四卡 再到的选项里的 4090 48G双 ...

主要是看到一些多模态模型,参数虽然不多,但显存占用几乎翻倍。
所以想选个高一点,至少不会遇到瓶颈。。

至于其他 优化,量化等,太高深了,对于以使用为主的我来说,有点难度。。

PS,其实主要是前期只有一台笔记本,在外边工作还不稳定。

gyc 发表于 2025-5-28 08:26

eliz 发表于 2025-5-27 19:10
感觉买个3080 20g性价比挺高的

但30系列的,听说都被锻炼过。。 虽然性价比高,但到手就坏的可能性不是没有。。

gyc 发表于 2025-5-28 08:30

porsche4me 发表于 2025-5-27 23:40
难道不是MacMini m4 pro 64G RAM是最便宜的选择吗? :)

我倒是觉得 AMD AI MAX 395+ 反而是首选, 至少X86 能干的比较多。

另一个是 Nvidia 年初说的那个超级迷你计算机, GB10 ,现在改名了, arm架构,128G LPDDR4 共享内存,据说性能接近5070,实际效果不明,但最大的优点是支持N家显卡通信交换机,用于边缘计算,只通过第三方合作伙伴发售,价格估计3K 美刀起步。。

方块李 发表于 2025-5-28 08:35

awpak78 发表于 2025-5-26 10:16
打游戏就打游戏
学AI这种借口骗骗父母和导师就行了,没必要拿到chh来骗哥们



你这话我不认同,显卡现在跟黄金一样的理财产品,自己随便玩,只要玩不坏,还能出二手。。

在线平台你是没用过,天天开着费钱,按需开又要配环境,有时候还要排队~~

反正富哥有预算,肯定优先自己买

gyc 发表于 2025-5-28 10:34

方块李 发表于 2025-5-28 08:35
你这话我不认同,显卡现在跟黄金一样的理财产品,自己随便玩,只要玩不坏,还能出二手。。

在线平台你是 ...

目的和需求不同。   在线适合那种 短期 有急需的,小团队, 但肯定能不适合公司,一个是保密,一个数据量,真要训练给少说也给500,600GB以上, 就这容量,上传都是个问题。


说个不恰当的, 网吧可以提供电脑,但你看不是每个人都会自己买一台吗?

nou8868 发表于 2025-5-28 10:46

5060ti 16g玩玩,然后再看看3090或者4090。有钱直接上rtx pro 6000。aimax这个估计不太行

Illidan2004 发表于 2025-5-28 11:00

“入门”

porsche4me 发表于 2025-5-28 22:35

gyc 发表于 2025-5-28 08:30
我倒是觉得 AMD AI MAX 395+ 反而是首选, 至少X86 能干的比较多。

另一个是 Nvidia 年初说的那个超级迷 ...

AMD的方案也是非常好, 我是再等等.. 现在本地AI还是想的挺好, 实际自己上手根本不行.. 性能啥的先不说, 给出的内容出错的太多了...

deepseek 再出神仙版本的时候估计本地AI的硬件也会有很大的提升... 苹果价格还是贵, 但很多大厂软件都是先匹配Mac...mac在这方面还是有优势的...

kesayi 发表于 2025-5-29 16:25

真要入显存大就是硬道理4090 48

gyc 发表于 2025-5-29 17:25

porsche4me 发表于 2025-5-28 22:35
AMD的方案也是非常好, 我是再等等.. 现在本地AI还是想的挺好, 实际自己上手根本不行.. 性能啥的先不说,...

其实就算在线部署 大模型,都一样。 人家官方API 提供自动联网能力,不需要自行设置。
但所有私有部署都没有这个能力,需要自己实现。包括 私有数据集, 数据清洗, 向量数据库,代码解释器, 安全沙箱等等。。

但是,最近MCP火了,很多常见功能工具都会做成一个组件,比如 读取本地文件能力, 操作数据库,甚至 调用支付宝生成订单等。


所以我觉得, 这种机器的目标是不是部署一个 70B的模型, 而是部署多个模型,比如14B基准模型, 7B的多模态模型, 或者运行语音识别模型

gyc 发表于 2025-5-29 17:27

kesayi 发表于 2025-5-29 16:25
真要入显存大就是硬道理4090 48

就是不知道有没有3风扇或者水冷版本,。。
页: 1 2 3 [4]
查看完整版本: 入门学习AI 那个显卡比较合适?