hawie 发表于 2024-11-11 11:19

吐槽:今天发现群晖的RAID6重建好傻

结论,一遍写入就可以计算好的事,分了两步,做两遍。等了两个重建时间。

盘3、4、5、6、7、8,为RAID6。其中,7、8盘为新增。
第一遍,读3、4、5、6,写入7;
》没有截图,当时看到盘8无访问。与下面截图类似。
第二遍,读3、4、5、6、7,写入8.
》截图:

mosigan 发表于 2024-11-11 11:25

要考虑风险的,一次一个盘,中间出现问题好修复

shadow404 发表于 2024-11-11 11:26

一般情况下是不建议扩容阵列的。。。真的很容易boom

hawie 发表于 2024-11-11 11:31

DSM这样做的风险增大了一倍,完全可以写7盘数据、写8盘数据同时进行。
没有扩容,是DSM另一个槽点,上电时后两个盘忘了插进去,结果触发了RAID6降级。然后插回去,就发生了上面的两次重建动作,完全可以更智能一点,甚至一遍写入都不用,就可以验证全盘。

powerduke 发表于 2024-11-11 12:19

本帖最后由 powerduke 于 2024-11-11 12:21 编辑

raid6写入效率低下,机械硬盘加两块盘扩容,6块盘同时读取和写入,重建过程中不坏盘就谢天谢地了。

dexterchen 发表于 2024-11-11 12:58

群晖扩容没啥意思
就是骗你多买两块硬盘
最后上八盘位或者买dx517

dcl2009 发表于 2024-11-11 14:40

一开始还用raid5,后来想了想,算了,不重要数据直接raid0,重要数据raid1

雨季不再来 发表于 2024-11-11 14:47

我就想知道专业领域使用硬RAID卡的,同时增加2块乃至更多的硬盘进行RAID6扩容,是怎么个流程!是同时扩还是一块一块扩?RAID6扩容,是数据平均分配在每块硬盘的、还是可以允许有一块硬盘容量和其他硬盘不一样?

hawie 发表于 2024-11-11 15:24

雨季不再来 发表于 2024-11-11 14:47
我就想知道专业领域使用硬RAID卡的,同时增加2块乃至更多的硬盘进行RAID6扩容,是怎么个流程!是同时扩还是 ...

以前用硬RAID,Dell PERC卡带电池的,也都是一次扩。多一次扩多一次风险。允许盘容量不同,但只用共同的最小容量。群晖魔改的SHR,是在这个基础上,将剩余的空间可以继续建存储空间。

雨季不再来 发表于 2024-11-11 15:32

hawie 发表于 2024-11-11 15:24
以前用硬RAID,Dell PERC卡带电池的,也都是一次扩。多一次扩多一次风险。允许盘容量不同,但只用共同的 ...

第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每块硬盘10T数据,变成每块硬盘7T不到的数据?

南之乔 发表于 2024-11-11 15:35

换unraid吧

hawie 发表于 2024-11-11 15:41

雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...

每块都是10T的数据,冗余数据也是轮流给一个个盘的。
比如,以RAID5为例(简单些),1号盘写数据A,2号盘写数据B,3号写数据C,...6号盘写A^B^C^...(前面各盘的XOR异或值)。再下一批数据的冗余值,可能就轮到1号盘写2~6号盘的XOR值。再下一批就是2号盘,...类推。这里任何一块盘坏,用好的盘的值进行一遍XOR运算就轻易得出来缺失盘的数据了。
再说一个群晖干的相似魔改RAID F1,是把上面这个冗余盘不断变换的规则,改为固定死在某一个盘,说法是针对SSD容易同时挂掉,所以刻意让一个SSD(冗余盘)不同,造成要挂也是先挂掉冗余盘。

hawie 发表于 2024-11-11 15:44

雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...

字面意思理解你的问题,答案应是变成约7T有效数据,每个盘是均等分布的,要么是有效数据,要么是冗余数据。

hawie 发表于 2024-11-11 15:46

南之乔 发表于 2024-11-11 15:35
换unraid吧

unraid要改用zfs才改进吧?

hawie 发表于 2024-11-11 15:55

雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...

再来,补充一下,
对RAID5/6而言, 这个扩容的过程可以这么表达,是把每盘10T数据重新计算,改为每盘7T数据(包括冗余数据)并重写进去的过程。
这样扩容的弊端很明显,数据重构,时间长、风险大,尤其万一发生重构过程多于冗余盘的盘片损坏,整个RAID就崩了。
后来,TrueNas Scale之类主用的ZFS,就改为不动原来的RAID,扩容改为是针对原来的RAID增加一组同样的盘,作为整个原RAID的RAID01,相当于容量要扩就扩一倍(跟原来RAID一样的盘数量与容量),好处是叠加了一层RAID01,性能也得高了,容量也加了一倍。

雨季不再来 发表于 2024-11-11 16:03

hawie 发表于 2024-11-11 15:55
再来,补充一下,
对RAID5/6而言, 这个扩容的过程可以这么表达,是把每盘10T数据重新计算,改为每盘7T数 ...

ZFS不是可以添加任意数量的硬盘吗?

mosigan 发表于 2024-11-11 16:23

雨季不再来 发表于 2024-11-11 16:03
ZFS不是可以添加任意数量的硬盘吗?

貌似最新的openzfs才出来的功能,以前确实只能一组一组的加

hawie 发表于 2024-11-11 18:19

ZFS并不建议通过扩充单个vdev的硬盘数量来扩容存储池。一组组加,不影响原来盘的同时扩容,是更好的。

黑的漂亮 发表于 2024-11-11 19:37

用久了你会发现,最终还是 raid0 或者 raid1,或者直接 basic 走起

c2h6o 发表于 2024-11-11 19:41

本帖最后由 c2h6o 于 2024-11-11 19:42 编辑

不是群晖的问题,是LINUX的软RAID就这策略。
扩容也不会移动数据,只是重新做一次校验,把所有块的校验做出来。
只有RAID 2.0+技术的数据块RAID才有均衡数据的分布的功能。
页: [1]
查看完整版本: 吐槽:今天发现群晖的RAID6重建好傻