gmcmail 发表于 2023-7-29 12:16 相似。先是这么做的,网卡直通给ROS,nvme直通给黑群。 但是群晖官方没有支持超过两个nvme盘的存储池,其他做法也没绕开群晖nvme控制器的门槛,只能退回RDM方式直通。 而I226直通给ROS的性能,弱于PVE经virtio虚拟网卡桥接性能,网卡也改回了桥接。 于是,理论上更好的方式,都被迫放弃了。现在只是期望这个N100+I226+4nvme组合, 能稳定运行起来。 |
hawie 发表于 2023-7-29 10:53 我是esxi下直通了sata控制器给群晖,然后直通了网卡给爱快。爱快用的是32位的,64位不行。 |
gmcmail 发表于 2023-7-29 10:37 最初被ESX狠狠的伤过,vmfs崩掉,一个阵列的数据全恢复不了。虽然不是重要数据,但是没有备份,一些历史资料就那么消失了。从此,没敢再用ESX,包括ESXi。 后来改用PVE,至少PVE所用的格式,比较容易维护。万一RAID降级啥的,自己还可以尝试恢复。 还有ESX以前客户端,只有Windows的,已经不用Windows很久了。PVE不需要客户端,也方便很多。 我有另一台7*24h长时稳定在用的,也是J4125,网卡是8125b,那个组合是怎么折腾都稳定。 估计你的系统稳定,可能跟CPU+网卡有关,J4125、I210口碑都很好。 |
esxi试试?我用的是j4125和i210。跑的爱快和群晖dock魔方。重载cpu,虽然百分百,但是不影响打游戏。。偶尔延迟高那么一下。后面我转移了。 |
hoongyin07 发表于 2023-7-28 21:09 9494 ![]() 主要是极限稳定之后,才敢长期使用 |
kozaya 发表于 2023-7-29 08:06 这是一个失败的案例,请忘了它 ![]() 长时稳定也不卡才敢用。 |
sufue7395 发表于 2023-7-28 21:02 稳定了,就敢可劲操,现在只是实验~ |
死机之后,干脆放开CPU的设置,功率释放提高到27W。再接着测。 当前测试情况: N100,标配2M.2( 1 * PCIe x 1 + 1 * PCIe x 4),默认BIOS,功率释放27W,数天稳定。 N100加转接板,改为4 * M.2(PCIe x 1),更换BIOS,功率释放20W,不稳定。这组合,就是前面测试所用的。 后者,仅修改BIOS参数,改为跟前面标配BIOS一致的参数,功耗释放27W,接着测,看是不是死的更快。 其实后者,已经陆续测试了几周了,从来没有稳定过,死的时间或长或短,还没找到规律。 但只要去掉转接板,换回对应的标配BIOS,就测数天都稳定,但这时只能接两块M.2。 有没有这样的可能: 因为厂家一直也找不出原因,但最近又提供了一个说法,说有可能你换一根三星的内存会好。 目前我用的某东自营的“英睿达(Crucial)16GB DDR5 4800频率”。 然而,这个内存,在不接这个转接板时标配用法,也是同样在用的。加上个转接板,内存就怀疑有兼容性问题,有这种可能吗? 因为手头没有DDR5三星笔记本内存,确认有这种可能性,才有去买的意义。 |
你这还能用也是服了 卡出天际线了都 ![]() |
merlinviva 发表于 2023-7-28 21:01 一直也在找40Gbps的外置盒,给Mac mini用。这款一直连着主机,会有掉盘的现象吗?读写性能怎样? |
我给了 100%, 我就要看到 100% 的使用率 ![]() |
可劲操,没事,现在硬件便宜 |
没有摸到极限,就这样了。 总的来说,N100不算是好选择,相比J4125,功耗提高一倍,稳定性差几条街,J4125干不了的,它也基本干不了,温度还高了近20度。已经有J4125/J4025的,不建议升级。 |
bychiphexll 发表于 2023-7-28 14:22 才入还热乎的N100,试图压榨一下,发现短板不是CPU,是I226 |
pve不知道,esxi下cpu跑太满,可以在监控里看到 cpu就绪 指标变高,相当于cpu超用了,然后虚拟机反应会慢,路由器那个虚拟机延迟会变高。 |
139k 满负荷运行小半年了 一体水冷挂了一个,新的刚换上去运行了10天。 |
huhudna 发表于 2023-7-28 13:46 网络先挂了,还没拷出来CPU啥事 |
merlinviva 发表于 2023-7-28 11:21 这个做NAS,功耗一流。只是存储用的哪家外置盒? |
4个e核心就算跑满也才30W吧。。有啥好担心的,两相供电都能扛住。 |
温度低的话不用担心 |
看温度吧。才58度,没点事 |
我做nas 和pt下载的m1 macmini 16g,常年cpu 内存跑满,固态做交换分区也海量使用,首发买的,迄今没一点事,我也想知道啥时挂掉 |
本帖最后由 hawie 于 2023-7-28 10:52 编辑 一些进一步的测试,结论有些实用。 PVE的RDM直通,性能损失比想象中的大,I/O时间,读1.x ms,写1x ms,且波动较大; 而NVME直通,I/O时间,读0.1x ms,写1.x ms,很稳定; 结论,RDM直通,增加大约十倍的I/O延迟。 另外,RDM占用CPU资源多,在RAID5全盘数据检验时,CPU占用率提高约60%。 遗憾的是,目前为止没有找到黑群在2个以上NVME的直通使用办法,因为官方最高支持两个NVME做存储池。只能RDM将就用着。 |
ysc3839 发表于 2023-7-28 03:25 N100功耗飙到23W,CPU温度60度左右,J4125同样查看也是这个温度,同样机壳被动散热,但机壳表面温度相差很大,前者热到接近烫,后者凉、久放略有温度。 |
CPU使用率仅仅代表一段时间内CPU非空闲时间所占的百分比,和功耗没有直接联系,只是跑一些普通运算的话功耗不会非常高,并没有问题,更应该关注的是CPU温度 |
hawie 发表于 2023-7-28 00:11 补充一个,放弃ROS(L6)网卡直通的原因,最初本是想当然的做了直通。 实测,直通时,跑不满2.5Gbps;而PVE linux bridge后,再虚拟给ROS,能跑满。 另外,实测PVE各虚拟机之间的带宽,约为21Gbps,也就是跑虚拟网有20Gbps,远快过物理网2.5Gbps。 |
Archiver|手机版|小黑屋|Chiphell
( 沪ICP备12027953号-5 )310112100042806
GMT+8, 2025-9-23 05:54 , Processed in 0.013526 second(s), 10 queries , Gzip On, Redis On.
Powered by Discuz! X3.5 Licensed
© 2007-2024 Chiphell.com All rights reserved.