关键是它QLC也不便宜啊,390/T了,还QLC是真看不上
是,确实不便宜
但是E1S又省地方又省散热器,确实也有点优势
个人用的大容量SSD做仓库盘,性能其次的 楼主买的价格真好。我也蹲蹲,可以把手里的万时通电PM9A3换掉了。 深圳老胡 发表于 2025-9-26 13:30
什么企业会买一批全新SSD,然后通电12小时,就通通拆下来折价大甩卖了?
一般企业级应用基本设计的时候都会有冗余,然后部署的时候后备机部署完成后不一定开机,然后到年限的时候一起换掉。 深蓝色海水 发表于 2025-9-26 14:58
我现在也是接近插满了,再买U.2的话,就只能切分CPU的PCI-E了
顺便吐槽一句,U.2走的都是PCI-E通道,插 ...
如果你非要走M.2 建议走后一个插槽下面的 要不然肯定特别热 我原来就是这块板子 我放最下面那个M.2了 958813826 发表于 2025-9-30 18:19
如果你非要走M.2 建议走后一个插槽下面的 要不然肯定特别热 我原来就是这块板子 我放最下面那个M.2了 ...
目前是5个U.2把主板的4个M.2和最底下那个PCIE都占用了,再买U.2的话,就只能切分第二根PCIE了。
X670EC的设计有个不合理的地方,第一和第二PCIE相距只有三槽位,插上9070之类的三槽半显卡,第二PCIE就没法直接用了,只能通过延长线,这又是一笔投入 深蓝色海水 发表于 2025-10-1 15:22
目前是5个U.2把主板的4个M.2和最底下那个PCIE都占用了,再买U.2的话,就只能切分第二根PCIE了。
X670EC的 ...
我的U.2都是通过 M.2转接线转的 所以我不存在你的问题 车开走了吗? 958813826 发表于 2025-10-1 20:11
我的U.2都是通过 M.2转接线转的 所以我不存在你的问题
bro,你没理解我的意思,你的U2设备应该没超过5个吧?没注意到我这里的重点是“5个U2设备”,跟接在哪儿关系不大,因为基本上能用的都用了
X670EC这块板的PCI-E带宽分配规律是:#1/#2PCI-E槽和上面两个M2口走CPU 5.0通道,下面两个M2口和#3PCI-E槽走南桥4.0通道,在又要保显卡带宽,又不使用PLX之类扩展卡的情况下,X670EC的上限就是:4个M2口+3个PCI-Ex4(走CPU的#2PCI-E槽拆分成x4+x4)共7个x4的设备带宽
就我这设备情况,目前就是4个M.2口+#3PCI-E槽带5个U.2,除非拆分后走CPU的#2PCI-E槽,否则南桥带宽肯定是占满的,设备多占用带宽多,温度高的问题自然无法解决
上面楼层也有说了,因为PCI-E槽距离设计的不完善,显卡又是三槽半的厚度,走#2PCI-E槽就要通过延长线,这又要一笔投入,还得重新理线,所以目前就这么用着吧,懒得折腾了
前面之所以吐槽,也是在吐槽主板的设计不合理,但凡把#1PCI-E槽往上挪一个槽位,就能上厚显卡又能用上#2PCI-E槽,而不用非让南桥顶着高温了
页:
1
[2]