真需要本地部署的根本不看上这 直接都是4块4090吧~你说的本地部署只是自己好玩
市场都会告诉你真实答案的
你不能在桌面都搞不定的情况下却指望人在高铁上端侧LLM
王炸不王炸我不知道,我只知道amd股价一直未止跌
桌面都搞不定.一个笔记本可以搞定本地部署ai.....啥人发的贴子啊.
pingji 发表于 2025-2-23 14:06
要是不到你准备怎么办
你试试配华硕+ITX看要不要
恋风123 发表于 2025-2-23 12:14
买这个级别SOC的消费者肯定有本地部署ai的需求;
讲真的,如今的ai浪潮席卷下,我周围很多60岁以上的退 ...
你在搞笑吧
炼金术士 发表于 2025-2-23 12:36
很多人连qwen蒸馏和deepseek原版的关系都没分清就开始尬吹了
4080虽然菜,部署14b q6还是可以的,非要对比 ...
14b感觉很多时候还是效果不太行的
qwen32b差不多可以用用
本帖最后由 zerozerone 于 2025-2-24 01:11 编辑
统一内存干到256-512G+跑个千亿中低精度蒸馏模型,这种本地模型输出的东西才能比个体专业性能力稍强。才有意义。个体娱乐需求另当别论了。
不客气的说,别说是统一内存提供的数据IO性能,就是HBM高成本的东西也达不到AI本地即时性IO需求,当前的计算结构就适配大模型来说就是削足适履。
当然了当下各种大模型这种AI也未必是未来能走通的路径。
现有的AI硬件平台需求和现实供给差异太大,老结构形成的格局还是有很大的转向阻力的。
统一内存这种形式相比传统还有点相对的低成本优势。
GPGPU,cuda这种垄断情势下,需要能真正搅局的角色。
道阻且长,不能半途而废,AI演化的中间过程的代价非常巨大无比。
苹果这么做不是已经5年了吗
“本地部署DeepSeek比4080super更快”
纯欺负4080super爆显存?春秋比法有啥意义,怎么不和4080super比游戏性能,
结合目前这个售价
真玩线下部署llm的
能不能打过老黄下面要出的project digits都难说
幻x有两个主要问题:1)就一个2230的固态硬盘位,2)还是液金
af_x_if 发表于 2025-2-23 12:11
medusa halo要是rdna3.5那就再下一代吧
APU核显到2027都会停在3.5的,基于AMD和三星的合作,别忘了三星自家移动端soc用AMD显卡
1万个玩家需要本地部署DeepSeek的,能有10个么?
因为DS热了火了,就整天这部署,部署个JB,都是伪需求!
FelixIvory 发表于 2025-2-23 12:36
medusa halo到底是3.5,4,还是udna?
除非上512bit位宽,不然是啥都没用吧
klxq15 发表于 2025-2-24 08:57
除非上512bit位宽,不然是啥都没用吧
打游戏区别大了。
但凡你吹的玩意有一点用,现在AI对股价影响这么大的形势下
怎么一个劲蹭DeepSeek蹭了一个月的AMD股价一路往下走啊?
这东西确实好,但是要释放好的机器看有没有品牌来做16寸的,联想到现在好像还没370产品。
价格也是王炸
极摩客 EVO-X2 这款用的就是AMD 锐龙AI Max+ 395,128G内存的14999元。
大家觉得怎么样?
monei 发表于 2025-4-15 19:38
极摩客 EVO-X2 这款用的就是AMD 锐龙AI Max+ 395,128G内存的14999元。
大家觉得怎么样? ...
太贵了有这钱不会买它
不是企业老板或个体户,为什么要花自己的钱部署AI?
在笔记本方便,x86永远比不过苹果
Mr.GeneraL 发表于 2025-4-16 10:12
不是企业老板或个体户,为什么要花自己的钱部署AI?
除非政府国企,大部分正经企业,也不会自己花钱部署AI
事实证明,没炸起来
不是 这不是典型的什么都行什么都不行么
这个就是传说中能打4060的核显?
软路由专用u[偷笑]