Chiphell - 分享与交流用户体验

标题: 内存焦虑党的福音来了:AMD的Strix Halo可配备最高128GB内存 [打印本页]

作者: sthuasheng    时间: 2024-6-24 16:01
标题: 内存焦虑党的福音来了:AMD的Strix Halo可配备最高128GB内存
AMD在台北电脑展2024上发布了基于Zen 5架构的锐龙9000桌面处理器Granite Ridge以及锐龙AI 300移动处理器Strix Point,但它们还藏了个一个巨大的APU——Strix Halo,它已经多次出现在海关的出货清单中,此前已经经过这些清单确认该处理器TDP大概在120W,而搭配的内存是32GB起步。

根据NewBid Data网站的信息,近日有一批新的Maple Rev.B PCB发货,这是AMD最近测试所使用的FP11插槽的Strix Halo参考平台,内存容量高达128GB,此前的测试平台内存容量都是32GB和64GB。根据此前泄露的文件,Strix Halo支持256位内存总线和LPDDR5-8000内存,而且它不在CPU上封装内存,目前LPDDR5X单颗最大是16GB,所以它至少得在CPU四周安装8个内存芯片。

配备这么大的内存估计是出于运行AI大模型的考虑,毕竟各种用途的大语言模型都是非常吃内存的,而Strix Halo本身的AI性能应该不差,它采用MCM设计,共有三颗芯片,有两个CCD和一个**,Zen 5架构每核心拥有1MB的L2缓存,每个CCD拥有8个核心,32MB L3缓存,所以一共有16MB L2缓存和64MB L3缓存,两个CCD使用IF总线与**相连。

IOD被**所取代,实际上它也算是个整合了较大规模核显的IOD,它的芯片面积非常大,比两个CCD大得多,它除了整合了40组CU的RDNA3+架构GPU外,还有算力超过40 TOPS的XDNA 2架构NPU,32MB MALL Cache用来缓解内存带宽不足的问题。
作者: 大头吃小头    时间: 2024-6-24 16:04
**是啥?
G…C…D?
作者: sthuasheng    时间: 2024-6-24 16:19
大头吃小头 发表于 2024-6-24 16:04
**是啥?
G…C…D?

哈哈,是的,被自动屏蔽了
作者: mnm001    时间: 2024-6-24 16:20
这东西要是有PC平台的就好了。 比9000 系列好很多。  内存集成我觉得都没什么问题。 
作者: 可以抱的萝卜    时间: 2024-6-24 16:53
128G正常操作了,64G的单条早量产了
作者: Mashiro_plan_C    时间: 2024-6-24 16:56
mnm001 发表于 2024-6-24 16:20
这东西要是有PC平台的就好了。 比9000 系列好很多。  内存集成我觉得都没什么问题。  ...

移动端也是PC,,,这玩意上桌面端很尴尬才是真的
作者: KazamiKazuki    时间: 2024-6-24 17:10
mnm001 发表于 2024-6-24 16:20
这东西要是有PC平台的就好了。 比9000 系列好很多。  内存集成我觉得都没什么问题。  ...

这玩意兼容不了AM5。上桌面也是焊好的成品主板
作者: pdvc    时间: 2024-6-24 18:40
120W的APU移动端😂
作者: jcd_chh    时间: 2024-6-24 18:58
graphic core die?
所以内存板载了?这可不是好消息,性价比组合样样都没有
作者: tengyun    时间: 2024-6-24 19:04

这128GB皇帝版 不得天价

其实32GB  大众应该也够用了吧,重度生产力还是别折腾笔记本了
作者: sthuasheng    时间: 2024-6-24 19:14
pdvc 发表于 2024-6-24 18:40
120W的APU移动端😂

这货的核显和独显差不多了,可以理解为120w是整台笔记本的功耗,这样看也还好?
作者: 烨庆    时间: 2024-6-24 20:52
希望有魔改的MoDT
作者: 7970Raymond    时间: 2024-6-24 21:03
没懂这东西造出来给谁用
作者: hustlhx    时间: 2024-6-24 21:05
本帖最后由 hustlhx 于 2024-6-24 22:21 编辑
sthuasheng 发表于 2024-6-24 19:14
这货的核显和独显差不多了,可以理解为120w是整台笔记本的功耗,这样看也还好? ...


halo这规格,性能不用担心。我更关心的还是办公续航表现如何
作者: ekiuc    时间: 2024-6-24 21:12
本帖最后由 ekiuc 于 2024-6-24 21:14 编辑
7970Raymond 发表于 2024-6-24 21:03
没懂这东西造出来给谁用


A卡单卖没人要的话,和CPU打包一块儿或许能尝试在高性能轻薄本这边啃掉一点N家x50的份额吧
作者: ekiuc    时间: 2024-6-24 21:13
jcd_chh 发表于 2024-6-24 18:58
graphic core die?
所以内存板载了?这可不是好消息,性价比组合样样都没有


或许可以整两个LPCAMM?但是这个点上成本不见得比板载低,OEM拿LPDDR的价格还是挺不错的
作者: jcd_chh    时间: 2024-6-24 21:14
ekiuc 发表于 2024-6-24 21:13
或许可以整两个LPCAMM?但是这个点上成本不见得比板载低,OEM拿LPDDR的价格还是挺不错的 ...

LPCAMM两个面积有点大吧能给一个不错了
作者: ekiuc    时间: 2024-6-24 21:17
本帖最后由 ekiuc 于 2024-6-24 21:37 编辑
KazamiKazuki 发表于 2024-6-24 17:10
这玩意兼容不了AM5。上桌面也是焊好的成品主板


MoDT做的话可以搞成核心板+底板,这样厂家只要设计底板就行了,参考jetson那一堆国产化的底板,难度大大下降,甚至我们自己都能做,极大地削减台系几家板厂的话语权


连接器设计的好的话还能兼容好几代
作者: ekiuc    时间: 2024-6-24 21:23
jcd_chh 发表于 2024-6-24 21:14
LPCAMM两个面积有点大吧能给一个不错了

不知道嘞,这东西也算是PC SoC这年比较有特色的一个玩意了,希望能看到厂商作出更多有意思的形态

我看华硕那些曾经有xg接口的幻系列就挺适合用这玩意,出门高性能SoC,在家插显卡坞,期待ing
作者: 昨天的昨天    时间: 2024-6-24 21:36
这下国产盒子NUC爽到了
作者: panzerlied    时间: 2024-6-24 21:43
7970Raymond 发表于 2024-6-24 21:03
没懂这东西造出来给谁用

Zen6的技术验证前置产品。

x86的炫技产品。

intel本来也有HALO的,砍掉了,本来这个炫技产品应该是intel来出的。
作者: 叶子烟    时间: 2024-6-24 21:45
这玩意儿的规格,我总觉得要么是给主机搞的要么是给现在电车的车机搞的。。。
作者: 7970Raymond    时间: 2024-6-24 21:56
panzerlied 发表于 2024-6-24 21:43
Zen6的技术验证前置产品。

x86的炫技产品。

确实是技术党的狂欢
我也想看看新的互联技术对游戏性能帮助多少
作者: ilivy    时间: 2024-6-24 22:04
这玩意真的会卖吗
作者: panzerlied    时间: 2024-6-24 22:04
7970Raymond 发表于 2024-6-24 21:56
确实是技术党的狂欢
我也想看看新的互联技术对游戏性能帮助多少

不会有多少提升,并没有留dGFX的通道,LPDDR也基本上对延迟躺平。

唯一值得期待的是得到巨大带宽的满血消费级Zen5。

虽然技术路线不同,不过可能是8809G那种想法的产品。
作者: 3s7s2v    时间: 2024-6-24 22:38
本帖最后由 3s7s2v 于 2024-6-24 22:41 编辑

不知道硬件上最多能分多少内存给核显当显存用

目前Windows平台暂时还不支持类似M芯片Mac那种统一内存模式,内存和显存仍然泾渭分明

之前5700G/8700G这种APU,当内存≥32G时可以在主板BIOS里面硬件划分出最多16GB给核显做显存,带宽瓶颈暂且不论,这样相当于有了一种低成本大显存跑神经网络的方案,例如SD直出高分辨率图片,显存不够是不能跑的,再比如现在火热的自然语言大模型,显存不够也是跑不了的

之前Mac Studio莫名其妙火了一阵,就是因为统一内存在理论上可以把192G全当做显存来用,这就相当于有了一个超低成本的大显存计算平台,M芯片的GPU/NPU的算力强弱姑且不论,192G显存在NV那边可是只有多卡A100/H100比较容易做到(RTX8000/RTX6000Ada这种48G的卡都要来4张,此外还要额外考虑nvlink以及切换TCC模式),巨大的成本消耗在消费电子品领域是难以想象的(况且消费者基本没有购买渠道),而顶配Mac Studio似乎不到10万?说它跑起来快不快慢不慢尚有回旋余地,毕竟已经解决了0→1的问题,显存不够可是连跑都跑不了

LPDDR5X应该有单颗粒24G的,手机厂已经用了快一年了,虽然还不主流,但也是成熟技术,如此说来,STX Halo可能有192G内存的选择?
作者: BFG9K    时间: 2024-6-25 01:54
panzerlied 发表于 2024-6-24 22:04
不会有多少提升,并没有留dGFX的通道,LPDDR也基本上对延迟躺平。

唯一值得期待的是得到巨大带宽的满血 ...

AM5 ZEN6应该也是用的一样的互联技术吧
作者: 翡翠月牙    时间: 2024-6-25 07:14
3s7s2v 发表于 2024-6-24 22:38
不知道硬件上最多能分多少内存给核显当显存用

目前Windows平台暂时还不支持类似M芯片Mac那种统一内存模式 ...

按这理论,所以gt610只是生错时代了?
作者: Asgard    时间: 2024-6-25 16:01
这玩意越看越像给下一代主机用的,APU性能大概是3060的水平,对于主机平台够用了
在家插电120w,出门就降,两用,也符合下一代主机移动化的思路
至于笔记本和掌机还是算了,120w,散热和电池一起疯了
作者: af_x_if    时间: 2024-6-25 19:00
Zen6 EPYC应该是和MI300类似的结构,只不过就像MI300A把2组CDNA换成3组Zen4那样内部全换成CPU核。

作者: dychenyi    时间: 2024-6-25 21:46
对于普通人,其实把ps5那块板,拿出来,配上个32G的GDDR6, 想想都有意思。
作者: FelixIvory    时间: 2024-6-25 22:40
本帖最后由 FelixIvory 于 2024-6-25 22:55 编辑
Asgard 发表于 2024-6-25 16:01
这玩意越看越像给下一代主机用的,APU性能大概是3060的水平,对于主机平台够用了
在家插电120w,出门就降, ...


前言不搭后语。
下代主机 3060?建议买个ps5先!
120w 移动化?ns sd什么功率范围先了解下。
120w 散热和电池疯了?你要不要买个游戏本看看多少瓦?
作者: liyichao97    时间: 2024-6-26 00:25
本帖最后由 liyichao97 于 2024-6-26 00:28 编辑
3s7s2v 发表于 2024-6-24 22:38
不知道硬件上最多能分多少内存给核显当显存用

目前Windows平台暂时还不支持类似M芯片Mac那种统一内存模式 ...


sd我几乎没用过,不过llm本地推理(一般batchsize=1的)速度几乎只和dram带宽有关系,甚至可以直接根据带宽把速度给算出来,每秒带宽/(模型尺寸+context尺寸)=生成速度,甚至用cpu跑推理都完全不会卡在算力瓶颈上。
所以mbp和mac studio在这个圈里火起来其实核心原因还真不在容量,而在于m系max有512bit的位宽,提供了400g/s的带宽,足以把q4量化的70b大模型跑出接近10t/s的速度。相比之下x86 msdt虽然能插满192g的内存,但是带宽就100g/s,大尺寸的模型确实能装下,但是带宽硬瓶颈卡住了完全跑不动。
所以说strix halo对llm爱好者是个神器,它虽然肯定贵,但不可能是mbp那样的贵。256bit 7533频率的内存能提供240g/s的带宽,如果配64g的内存可以流畅跑q4甚至q6的34b模型,跑14b模型或者类mixtral模型可以速度飞起来,我觉得可以说是个比较好的平衡点。
当然,不管怎么说这个需求都太小众了……我觉得这些考虑几乎不会对厂商选型产生任何影响。
作者: 3s7s2v    时间: 2024-6-26 21:17
本帖最后由 3s7s2v 于 2024-6-26 21:24 编辑
liyichao97 发表于 2024-6-26 00:25
sd我几乎没用过,不过llm本地推理(一般batchsize=1的)速度几乎只和dram带宽有关系,甚至可以直接根据带 ...


非常感谢,又学到了新的知识

最近几个月一直在跑SDXL,套用这方面的一些经验结果得到了错误的认知。在此之前一直不太了解大语言LLM吃内存带宽这件事,想当然以为仅仅是容量不够就跑不起来,十分感谢您的指点和纠正

我目前是149K插满4槽内存192G,刚刚测了一下这个内存带宽非常不理想,只有75G/s左右的样子,离主流x86 MSDT DDR5的100G/s还有一段距离,主要原因还是4槽内存频率起不来,先前也是调试了很久才稳在了5400。如果想要高频,x86 MSDT这边其实最高只能2槽96G,假设颗粒状况较为理想,拉到8200来算大概是112G/s左右,离M2Max的400G/s还是很遥远就是了,M2Ultra的800G/s就更遥远了,难怪那么多人拿Mac Studio跑大模型还说很有性价比,RTX6000Ada是单卡48G内存,虽然内存带宽高达960G/s,但是容量完全放不下70b模型,况且这一块儿卡就比满配192G内存M2Ultra的Studio要贵了,H100更是有价无市
作者: kisazhu    时间: 2024-6-26 21:36
7970Raymond 发表于 2024-6-24 21:03
没懂这东西造出来给谁用

游戏机
作者: frezta    时间: 2024-6-26 21:38
dychenyi 发表于 2024-6-25 21:46
对于普通人,其实把ps5那块板,拿出来,配上个32G的GDDR6, 想想都有意思。

几年前市面上有流出拿残次品做的4700s主板,延迟高得飞起
作者: dychenyi    时间: 2024-6-26 21:57
frezta 发表于 2024-6-26 21:38
几年前市面上有流出拿残次品做的4700s主板,延迟高得飞起

那是去掉了核显,只有PCI-E 2.0 x4,延迟大不是理所当然么。
作者: liyichao97    时间: 2024-6-27 09:42
3s7s2v 发表于 2024-6-26 21:17
非常感谢,又学到了新的知识

最近几个月一直在跑SDXL,套用这方面的一些经验结果得到了错误的认知。在此 ...

确实就是这个道理,x86 msdt装得下跑不动,消费级显卡跑得动装不下,专业卡和x86服务器cpu都是好东西但是天价,唯有厂商发发善心给消费级拉高内存位宽才是性价比最高的解法
作者: zhuifeng88    时间: 2024-6-27 09:52
本帖最后由 zhuifeng88 于 2024-6-27 10:04 编辑
3s7s2v 发表于 2024-6-26 21:17
非常感谢,又学到了新的知识

最近几个月一直在跑SDXL,套用这方面的一些经验结果得到了错误的认知。在此 ...


这里有几个问题
mac studio跑出"勉强能用的速度", 是指70b q4或者接近的量化模型, 48g显存也是能跑的, 远比mac studio快
如果考虑便宜的话, 换成两张24g卡也能随便跑远超出mac studio的速度, (这也是为什么P40洋垃圾大幅涨价, 从700涨到近2000了), mac studio谈不上任何性价比
就算不考虑洋垃圾, 全新两张7900xtx也是可以无障碍跑70b q4的(小白都能一键包的那种无障碍)

再然后, ada架构48g显存有L20和L40, 前者2w多, 后者3w多, 也是比m2 ultra便宜

说m2 ultra性价比基本是不了解有些什么部署方式以及各型号显卡情况被忽悠瘸的


====================
另外这种用途完全不需要担心pcie带宽的问题, 多卡pipeline bs1仅推理的情况下, 卡之间每token只需要传一次hidden state, 数据量非常小, m.2转接pcie 3.0x4都是绰绰有余的, tensor parallelism才会对带宽有要求, 但这不是唯一的多卡方式(主要用于训练和大批量推理)
作者: 3s7s2v    时间: 2024-6-27 12:40
liyichao97 发表于 2024-6-27 09:42
确实就是这个道理,x86 msdt装得下跑不动,消费级显卡跑得动装不下,专业卡和x86服务器cpu都是好东西但是 ...

只能说Strix Halo这个256-bit内存控制器理想真的很美好,我内心也是迫切地希望他真的能成为民间LLM爱好者的低成本平台神器,但是这就又回到开始的那个问题了,从前几代APU来看没有统一内存模式,显存和内存是在BIOS里面硬划分出来的,如果仍然采用这种模式,那恐怕希望就落空了
作者: zhuifeng88    时间: 2024-6-27 12:44
本帖最后由 zhuifeng88 于 2024-6-27 12:46 编辑
3s7s2v 发表于 2024-6-27 12:40
只能说Strix Halo这个256-bit内存控制器理想真的很美好,我内心也是迫切地希望他真的能成为民间LLM爱好者 ...


"从前几代APU来看没有统一内存模式"

有的, llama.cpp社区早就把rocblas的680m/780m build + uma跑llm全套流程搞通了


详见
https://github.com/ggerganov/llama.cpp/pull/4449
https://github.com/ggerganov/llama.cpp/pull/7414
作者: 3s7s2v    时间: 2024-6-27 13:01
zhuifeng88 发表于 2024-6-27 09:52
这里有几个问题
mac studio跑出"勉强能用的速度", 是指70b q4或者接近的量化模型, 48g显存也是能跑的, 远 ...

只跑推理的话确实有很多便宜大碗方案,如果想自己训练模型或者微调模型压力就很大了,192G也就勉强能以float训练13B模型,这会儿再看这些24G、32G乃至48G内存的显卡,就觉得这点内存真是捉襟见肘
作者: 3s7s2v    时间: 2024-6-27 13:04
zhuifeng88 发表于 2024-6-27 12:44
"从前几代APU来看没有统一内存模式"

有的, llama.cpp社区早就把rocblas的680m/780m build + uma跑llm全 ...

那真是太好了,我简直是孤陋寡闻,我现在已经等不及Strix Halo发售了,这绝对是神器
作者: netjunegg    时间: 2024-6-27 13:20
zhuifeng88 发表于 2024-6-27 12:44
"从前几代APU来看没有统一内存模式"

有的, llama.cpp社区早就把rocblas的680m/780m build + uma跑llm全 ...

这是AMD一个巨大机会,nv的短板,看amd能不能抓住了
作者: zhuifeng88    时间: 2024-6-27 14:02
3s7s2v 发表于 2024-6-27 13:01
只跑推理的话确实有很多便宜大碗方案,如果想自己训练模型或者微调模型压力就很大了,192G也就勉强能以fl ...


48g或者双卡24g全参数bf16微调13b模型可以用galore/adalomo/badam这些优化器, 以牺牲一点速度和稍微复杂一点的超参为代价节省大部分显存, bs小点用grad accum, 配合activation checkpointing就能做到

(虽说是牺牲一点速度, 但也就2倍耗时以内, 比拿m2u去干这个还是快不知道哪里去了
作者: liu3yang3715    时间: 2024-6-27 15:09
如果说Rocm pytorch性能还过得去的话,倒是一个很好深度学习的学习机,192G的内存可以跑很多东西了。
作者: liyichao97    时间: 2024-6-27 16:05
本帖最后由 liyichao97 于 2024-6-27 16:18 编辑
zhuifeng88 发表于 2024-6-27 09:52
这里有几个问题
mac studio跑出"勉强能用的速度", 是指70b q4或者接近的量化模型, 48g显存也是能跑的, 远 ...


m系性价比肯定比不了p40(甚至比不了3090),但是m系能装笔记本里带着走嘛…在strix halo出来之前完全没有其他可比的解决方案
能用便携设备随便跑,不用买一堆洋垃圾堆在家里本身就是一种性价比了

编辑:而且我查了一下,p40还是gddr5啊,那应该速度跑不过m系的max,更不用说ultra了
作者: 3s7s2v    时间: 2024-6-27 16:10
zhuifeng88 发表于 2024-6-27 14:02
48g或者双卡24g全参数bf16微调13b模型可以用galore/adalomo/badam这些优化器, 以牺牲一点速度和稍微复杂 ...

原来如此,涨知识了
作者: zhuifeng88    时间: 2024-6-27 16:22
liyichao97 发表于 2024-6-27 16:05
m系性价比肯定比不了p40(甚至比不了3090),但是m系能装笔记本里带着走嘛…在strix halo出来之前完全没 ...


"而且我查了一下,p40还是gddr5啊,那应该速度跑不过m系的max,更不用说ultra了"

前情提要: 两张p40, 一张也塞不下70b q4
作者: sekiroooo    时间: 2024-6-27 16:50
大头吃小头 发表于 2024-6-24 16:04
**是啥?
G…C…D?

**就是 显卡计算单元, 封装了RDNA3.5架构的显卡 和 NPU ai计算单元在里面
作者: fluttershy    时间: 2024-6-27 17:15
frezta 发表于 2024-6-26 21:38
几年前市面上有流出拿残次品做的4700s主板,延迟高得飞起

系统和驱动的问题 XBOX就是个套壳WIN 用的玩意也是差不多
正常定制也是有系统的 只不过系统比较小 内存最早只配512m
作者: liyichao97    时间: 2024-6-27 17:56
zhuifeng88 发表于 2024-6-27 16:22
"而且我查了一下,p40还是gddr5啊,那应该速度跑不过m系的max,更不用说ultra了"

前情提要: 两张p40, 一 ...

bs=1并且不tensor parallel的话,一轮推理内是串行的,算完这张卡上的层才能算下一张,所以最终算推理吞吐的时候只能按一张卡的带宽算
tensor parallel就又得吃互联能力了,而且是不是一般不会这么干啊……我没实践过多卡,不太清楚
作者: zhuifeng88    时间: 2024-6-27 18:25
liyichao97 发表于 2024-6-27 17:56
bs=1并且不tensor parallel的话,一轮推理内是串行的,算完这张卡上的层才能算下一张,所以最终算推理吞 ...

这是纯粹sequential了, 实际可以pipeline + ngram speculative
作者: 声色茶马    时间: 2024-6-27 18:40
sthuasheng 发表于 2024-6-24 19:14
这货的核显和独显差不多了,可以理解为120w是整台笔记本的功耗,这样看也还好? ...

散热系统瑟瑟发抖中……
作者: liyichao97    时间: 2024-6-27 20:41
zhuifeng88 发表于 2024-6-27 18:25
这是纯粹sequential了, 实际可以pipeline + ngram speculative

去稍微了解了一下,学习了。谢谢!
作者: wei73    时间: 2024-6-28 09:23
Asgard 发表于 2024-6-25 16:01
这玩意越看越像给下一代主机用的,APU性能大概是3060的水平,对于主机平台够用了
在家插电120w,出门就降, ...

掌机不说,笔电怎么就不行了呢?

现在的上了独显的本子不都是分分钟120W以上?
作者: tiantian80    时间: 2024-6-28 09:58
大头吃小头 发表于 2024-6-24 16:04
**是啥?
G…C…D?

这就很魔幻了
作者: frezta    时间: 2024-6-29 13:49
dychenyi 发表于 2024-6-26 21:57
那是去掉了核显,只有PCI-E 2.0 x4,延迟大不是理所当然么。

说的是GDDR6的延迟高.当系统内存读写140+的延迟。几年前ps4破解的时候就有人往上面装linux,测试GDDR的CL高普通DDR一大截。
作者: danaoshuiping    时间: 2024-8-3 02:04
Asgard 发表于 2024-6-25 16:01
这玩意越看越像给下一代主机用的,APU性能大概是3060的水平,对于主机平台够用了
在家插电120w,出门就降, ...

笔电应该还是挺有戏的,120W的满载功耗对于现在的全能本来说压住简直轻轻松松,个人最希望看到的产品思路是:出门要续航,就关掉一个ccd,然后降压降频,变成7800u+890m,回家插上电,性能拉满,变成7950hx+4060(我是不是想的太美好了一点。。。)
作者: 一日    时间: 2024-8-3 10:58
Asgard 发表于 2024-6-25 00:01
这玩意越看越像给下一代主机用的,APU性能大概是3060的水平,对于主机平台够用了
在家插电120w,出门就降, ...

这不就是x86的M3 MAX吗?
作者: 无真名    时间: 2024-8-3 11:40
不太懂具体是啥,但是好像可以All in One??
作者: meatisfree    时间: 2024-8-3 12:13
switch2用这个才是爽,可惜应该还是nv的阉割货
作者: 腿毛飘飘    时间: 2024-8-3 12:18
meatisfree 发表于 2024-8-3 12:13
switch2用这个才是爽,可惜应该还是nv的阉割货

想啥呢?switch2 整机零售价都不够这个u的成本的。
作者: gartour    时间: 2024-8-3 12:24
dychenyi 发表于 2024-6-25 21:46
对于普通人,其实把ps5那块板,拿出来,配上个32G的GDDR6, 想想都有意思。

没有合适的驱动跑不了win吧




欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) Powered by Discuz! X3.5