ghfjdksla 发表于 2025-7-29 23:35
1,4都有。不知道需求4具体怎么实现,其他m4max体验完美
enolc 发表于 2025-7-29 23:55
远程接入每次都需要一系列的认证和身份验证,很麻烦。而且远程接入的下行和上传速率也得不到保障,试过好几 ...
我輩樹である 发表于 2025-7-30 00:38
python配置成remote interpreter。
firepond 发表于 2025-7-30 01:03
你这需求无脑mac啊
enolc 发表于 2025-7-29 23:55
远程接入每次都需要一系列的认证和身份验证,很麻烦。而且远程接入的下行和上传速率也得不到保障,试过好几 ...
iooo 发表于 2025-7-30 01:25
AI Max395的CPU比9955HX不弱吧,而且395可以跑70b
yin19991999 发表于 2025-7-30 07:37
没明白现在本地部署模型的目的是什么,网上的更快更好啊
yin19991999 发表于 2025-7-30 07:37
没明白现在本地部署模型的目的是什么,网上的更快更好啊
ltf915 发表于 2025-7-30 08:30
1、安全,数据都在本地
2、参数可以调
3、灵活
银月 发表于 2025-7-29 23:33
我出门只考虑核显本+pd充电器,什么性能不插电都是负资产,离电续航才是真实的
毕竟当我真的需要gpu的时候 ...
pdvc 发表于 2025-7-30 09:43
直接云上虚拟部署就好了,反正也不需要什么大带宽。其他需求M4 AIR/PRO完事。 ...
pingji 发表于 2025-7-30 10:44
395也就4060,你要没有ai需求,1.4w买个4060?
archxm 发表于 2025-7-30 09:45
为啥不在百度云买个gpu集群?
家里公网ip带宽多少,有么有限制端口?是nat共享还是独立ip? ...
银月 发表于 2025-7-30 11:02
因为我知道什么是pcie
archxm 发表于 2025-7-30 11:07
pcie又不是啥高级知识,我相信大品牌不会忽悠人,用到时就问一下,日常不关注这个,用不到就忘了 ...
银月 发表于 2025-7-30 11:14
用不到吗,我每天都在用pcie,我们不一样
archxm 发表于 2025-7-30 11:19
用不到那个知识点,你每天整理 pcie 文档吗?
银月 发表于 2025-7-30 11:25
pcdiy最基础的知识之一,怎么会用不到呢
你不懂就不懂嘛,非要自己凑过来,还问点什么网络问题
hustlhx 发表于 2025-7-30 10:50
上代幻X 2023也是1.4万哦,还是残血4060,估计就4050的性能。
楼主这个顶配幻x 2025是2万 ...
scpe 发表于 2025-7-30 11:10
除了3不确定要怎么处理,肯定只能选Mac, scRNA-seq都是远程上服务器或者用台机,任何笔记本跑这些东西现阶 ...
yakeyyy 发表于 2025-7-30 12:20
这个随意,反正预算足够,看你的说法似乎没有游戏需求,两台游戏本先排除,便携性比较差,离电也不行,个人 ...
enolc 发表于 2025-7-30 12:23
用M4 Max 运行scRNA-seq还算可行,相对于CPU,对内存的要求更高一些
enolc 发表于 2025-7-30 12:18
对,128G内存旗舰版差不多就是2万左右
scpe 发表于 2025-7-30 17:25
scRNA-seq也不是天天跑的东西,10XGenomics的耗材可不便宜,几次的量配置拉的太高有点过了 ...
enolc 发表于 2025-8-4 01:53
团队差不多2周需要跑一次
欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) | Powered by Discuz! X3.5 |