YsHaNg 发表于 2025-1-27 09:47

pdvc 发表于 2025-1-26 22:50
目前最便宜的r1本地部署的硬件是macmini m4

树莓派不服 原生docker性能损耗更小 还是说你没看到r1蒸馏有个1.5b版本? 你可以去随意拖个q4量化的甚至q3

forfans 发表于 2025-1-27 09:51

算力增加也看成本的,现在也没啥热爆应用。听的的最多的就是一帮程序员和美工说要失业。。。
我看是不是泡沫要破?

用户 发表于 2025-1-27 10:38

ux9p0k0 发表于 2025-1-27 09:47
开源模型追上 SOTA 本身就反映了头部玩家的投资回报越来越低,Deepseek 继续扩大规模后一样会面临 diminish ...

AI市场就那么大的话,N家争夺,付N遍大模型训练成本,投资能有回报才怪。更大的模型是否能解锁更大的市场是存疑的。

zhoubi 发表于 2025-1-27 10:39

DeepSeek-V3在仅使用2048块H800 GPU的情况下,完成了6710亿参数模型的训练,成本仅为557.6万美元,远低于其他顶级模型的训练成本(如**-4的10亿美元)

cyberms 发表于 2025-1-27 10:45

其实都不关键:关键的是价格。


DeepSeek-R1 API 服务定价为每百万输入tokens 1 元(缓存命中)/ 4元(缓存未命中),每百万输出tokens 16元。

对比OpenAI o1的 API定价:每百万输入tokens 15美元、每百万输出tokens 60美元。

也就是说,每百万输出定价,DeepSeek-R1大概仅为OpenAIo1的3.65%。

被美国佬的盈利给干没了。这个才是最关键的。

8owd8wan 发表于 2025-1-27 10:50

1. 确实很省算力
2. 软件架构和代码优化的奇迹,真的没想到
3. 完全公开的代码和技术方案,全球各大科研机构的AI实验室,这几天成功地复现和验证R1,屌丝团队们的狂欢
4. 第一时间适配和AMD和华为,相当于给NV飞龙骑脸
5. 算力屏障依然存在,但此刻,至少缓解了很多
6. 启发了方向,通过程序员而不是纯算法工程师,持续创新架构,优化代码,是否可以继续榨取手头硬件性能?

nihilum 发表于 2025-1-27 10:58

省算力意思是同等算力推理效果更好咯,但是也不影响提高算力进一步提升模型能力咯

8owd8wan 发表于 2025-1-27 11:16

nihilum 发表于 2025-1-27 10:58
省算力意思是同等算力推理效果更好咯,但是也不影响提高算力进一步提升模型能力咯 ...

1. 算力屏障依然存在,只是说目前可以缓解

2. Scaling law也存在边际效应降低的问题

xks07 发表于 2025-1-27 11:22

BFG9K 发表于 2025-1-27 03:34
DS本身太惊艳了,作为个人用户能多一个模型用实在是太爽了

除开DS本身我很喜欢看不同立场的人对DS的反应


都是利益。

Anderson997 发表于 2025-1-27 11:24

YsHaNg 发表于 2025-1-27 09:47
树莓派不服 原生docker性能损耗更小 还是说你没看到r1蒸馏有个1.5b版本? 你可以去随意拖个q4量化的甚至q ...

萌新试了下7b的回答都不太行啊,你们1.5b是干啥用的?

gartour 发表于 2025-1-27 11:43

寒蝉鸣泣 发表于 2025-1-27 03:46
兄弟们的回帖来看,已经站到了第五层,DS省资源+资本充足=老子要把模型突破天际。 SO 老黄或继续赢? ...

应该就是这样。这是一次显著的效率改进,但还不足以cover算力饥渴。

类似锂电池,如果某天突然能量密度翻倍了,你觉得各种设备厂商会把电池体积减半维持目前容量,还是维持体积不变让容量翻倍?

RZ.zheng 发表于 2025-1-27 11:47

YsHaNg 发表于 2025-1-27 03:09
既然省算力我肯定先想把模型做更大 现在行业里最不缺热钱 微软meta Google都各揣着几百亿买卡建dc ...

你这句话点醒了我呀

dcx_310 发表于 2025-1-27 12:01

寒蝉鸣泣 发表于 2025-1-27 04:26
坛子里很神奇的地方是,我也知道AI目前创新层出不穷,圈子里不缺钱,大把钱买卡,可是坛子里对50系一片看 ...

因为坛子里话最多的人大多是卖东西的,玩家是沉默的大多数

MolaMola 发表于 2025-1-27 12:43

算力肯定永远都不够的,发展肯定还是往前发展
对AI市场动摇的是算力成本
对老黄动摇的是硬件架构上的话语权

8owd8wan 发表于 2025-1-27 12:49

forfans 发表于 2025-1-27 09:51
算力增加也看成本的,现在也没啥热爆应用。听的的最多的就是一帮程序员和美工说要失业。。。
我看是不是泡 ...

一方面是成本和收益,另外一方面是 scaling law 的边际效应。
所以,算力泡沫确实有那么点儿了

weston 发表于 2025-1-27 13:35

起飞 发表于 2025-1-27 04:56
要求确实不高,随便拿台16核的vps跑了下,cpu吃满,内存只用了20g不到

可以试试,linux下装个ollama,再弄 ...

没有显卡也可以跑吗?

8xwob3ko 发表于 2025-1-27 14:12

BFG9K 发表于 2025-1-27 03:34
DS本身太惊艳了,作为个人用户能多一个模型用实在是太爽了

除开DS本身我很喜欢看不同立场的人对DS的反应


蒸馏怎么保证效果本身就是一个重要研究方向,这个还是很重要的。
不过蒸馏的低算力成本多半不会怎么影响算力需求,蒸馏前的基础模型还是要做大,推理成本影响很大但算力大头本身在训练。

pdvc 发表于 2025-1-27 15:43

本帖最后由 pdvc 于 2025-1-27 15:47 编辑

YsHaNg 发表于 2025-1-27 09:47
树莓派不服 原生docker性能损耗更小 还是说你没看到r1蒸馏有个1.5b版本? 你可以去随意拖个q4量化的甚至q ...

说的当然是完整版R1了……

syringalibra 发表于 2025-1-27 16:03

美国科技行业目前已经是资本游戏,华尔街和科技权贵勾结在一起,Sam Altman这种人可以登堂入室就是最好的证明,他们关心的是股票价格,不是技术本身,吹概念割韭菜一波更重要

8owd8wan 发表于 2025-1-27 16:18

syringalibra 发表于 2025-1-27 16:03
美国科技行业目前已经是资本游戏,华尔街和科技权贵勾结在一起,Sam Altman这种人可以登堂入室就是最好的证 ...

OpenAI 前世今生看一遍,是蛮恶心的

声色茶马 发表于 2025-1-27 16:52

本帖最后由 声色茶马 于 2025-1-27 16:55 编辑

YsHaNg 发表于 2025-1-27 03:09
既然省算力我肯定先想把模型做更大 现在行业里最不缺热钱 微软meta Google都各揣着几百亿买卡建dc ...

就是,谁会真因为软件优化好就不堆硬件性能了。

真正能让老黄慌的,一是台积电制程无法进步了,另一是非黄卡跑大模型比黄卡效率还高了。

Montelucast 发表于 2025-1-27 17:18

相当于低成本的达到了现有高度,但是天花板还是很低

YsHaNg 发表于 2025-1-27 18:52

Anderson997 发表于 2025-1-27 03:24
萌新试了下7b的回答都不太行啊,你们1.5b是干啥用的?

改写 code 脚本 对话使用为啥不用网页/api完整版?

YsHaNg 发表于 2025-1-27 18:54

pdvc 发表于 2025-1-27 07:43
说的当然是完整版R1了……

hhhhh 我也看到这个了 很整活

Anderson997 发表于 2025-1-27 18:59

YsHaNg 发表于 2025-1-27 18:52
改写 code 脚本 对话使用为啥不用网页/api完整版?

这不本地ollama试着玩么。。。[偷笑]

YsHaNg 发表于 2025-1-27 19:01

Anderson997 发表于 2025-1-27 10:59
这不本地ollama试着玩么。。。

玩的话 llm能力跟着显存/内存来

xiao4G 发表于 2025-1-27 19:17

这次美国要不要把windows也禁了

aiyaya2004 发表于 2025-1-27 19:57

8owd8wan 发表于 2025-1-27 10:50
1. 确实很省算力
2. 软件架构和代码优化的奇迹,真的没想到
3. 完全公开的代码和技术方案,全球各大科研机 ...

飞龙骑脸,怎么输?

8owd8wan 发表于 2025-1-27 20:11

aiyaya2004 发表于 2025-1-27 19:57
飞龙骑脸,怎么输?

AMD 估计现在偷着笑呢。

Anderson997 发表于 2025-1-27 20:12

YsHaNg 发表于 2025-1-27 19:01
玩的话 llm能力跟着显存/内存来

恩,垃圾配置还是浅尝辄止了[恶魔]
页: 1 [2] 3
查看完整版本: 最近影响AI算力的因素最权重的应该是DeepSeek