吐槽:今天发现群晖的RAID6重建好傻
结论,一遍写入就可以计算好的事,分了两步,做两遍。等了两个重建时间。盘3、4、5、6、7、8,为RAID6。其中,7、8盘为新增。
第一遍,读3、4、5、6,写入7;
》没有截图,当时看到盘8无访问。与下面截图类似。
第二遍,读3、4、5、6、7,写入8.
》截图:
要考虑风险的,一次一个盘,中间出现问题好修复 一般情况下是不建议扩容阵列的。。。真的很容易boom DSM这样做的风险增大了一倍,完全可以写7盘数据、写8盘数据同时进行。
没有扩容,是DSM另一个槽点,上电时后两个盘忘了插进去,结果触发了RAID6降级。然后插回去,就发生了上面的两次重建动作,完全可以更智能一点,甚至一遍写入都不用,就可以验证全盘。 本帖最后由 powerduke 于 2024-11-11 12:21 编辑
raid6写入效率低下,机械硬盘加两块盘扩容,6块盘同时读取和写入,重建过程中不坏盘就谢天谢地了。
群晖扩容没啥意思
就是骗你多买两块硬盘
最后上八盘位或者买dx517 一开始还用raid5,后来想了想,算了,不重要数据直接raid0,重要数据raid1 我就想知道专业领域使用硬RAID卡的,同时增加2块乃至更多的硬盘进行RAID6扩容,是怎么个流程!是同时扩还是一块一块扩?RAID6扩容,是数据平均分配在每块硬盘的、还是可以允许有一块硬盘容量和其他硬盘不一样? 雨季不再来 发表于 2024-11-11 14:47
我就想知道专业领域使用硬RAID卡的,同时增加2块乃至更多的硬盘进行RAID6扩容,是怎么个流程!是同时扩还是 ...
以前用硬RAID,Dell PERC卡带电池的,也都是一次扩。多一次扩多一次风险。允许盘容量不同,但只用共同的最小容量。群晖魔改的SHR,是在这个基础上,将剩余的空间可以继续建存储空间。 hawie 发表于 2024-11-11 15:24
以前用硬RAID,Dell PERC卡带电池的,也都是一次扩。多一次扩多一次风险。允许盘容量不同,但只用共同的 ...
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每块硬盘10T数据,变成每块硬盘7T不到的数据? 换unraid吧 雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...
每块都是10T的数据,冗余数据也是轮流给一个个盘的。
比如,以RAID5为例(简单些),1号盘写数据A,2号盘写数据B,3号写数据C,...6号盘写A^B^C^...(前面各盘的XOR异或值)。再下一批数据的冗余值,可能就轮到1号盘写2~6号盘的XOR值。再下一批就是2号盘,...类推。这里任何一块盘坏,用好的盘的值进行一遍XOR运算就轻易得出来缺失盘的数据了。
再说一个群晖干的相似魔改RAID F1,是把上面这个冗余盘不断变换的规则,改为固定死在某一个盘,说法是针对SSD容易同时挂掉,所以刻意让一个SSD(冗余盘)不同,造成要挂也是先挂掉冗余盘。 雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...
字面意思理解你的问题,答案应是变成约7T有效数据,每个盘是均等分布的,要么是有效数据,要么是冗余数据。 南之乔 发表于 2024-11-11 15:35
换unraid吧
unraid要改用zfs才改进吧? 雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...
再来,补充一下,
对RAID5/6而言, 这个扩容的过程可以这么表达,是把每盘10T数据重新计算,改为每盘7T数据(包括冗余数据)并重写进去的过程。
这样扩容的弊端很明显,数据重构,时间长、风险大,尤其万一发生重构过程多于冗余盘的盘片损坏,整个RAID就崩了。
后来,TrueNas Scale之类主用的ZFS,就改为不动原来的RAID,扩容改为是针对原来的RAID增加一组同样的盘,作为整个原RAID的RAID01,相当于容量要扩就扩一倍(跟原来RAID一样的盘数量与容量),好处是叠加了一层RAID01,性能也得高了,容量也加了一倍。 hawie 发表于 2024-11-11 15:55
再来,补充一下,
对RAID5/6而言, 这个扩容的过程可以这么表达,是把每盘10T数据重新计算,改为每盘7T数 ...
ZFS不是可以添加任意数量的硬盘吗? 雨季不再来 发表于 2024-11-11 16:03
ZFS不是可以添加任意数量的硬盘吗?
貌似最新的openzfs才出来的功能,以前确实只能一组一组的加 ZFS并不建议通过扩充单个vdev的硬盘数量来扩容存储池。一组组加,不影响原来盘的同时扩容,是更好的。 用久了你会发现,最终还是 raid0 或者 raid1,或者直接 basic 走起 本帖最后由 c2h6o 于 2024-11-11 19:42 编辑
不是群晖的问题,是LINUX的软RAID就这策略。
扩容也不会移动数据,只是重新做一次校验,把所有块的校验做出来。
只有RAID 2.0+技术的数据块RAID才有均衡数据的分布的功能。
页:
[1]