找回密码
 加入我们
搜索
      
查看: 3215|回复: 19

[NAS] 吐槽:今天发现群晖的RAID6重建好傻

[复制链接]
发表于 2024-11-11 11:19 | 显示全部楼层 |阅读模式
结论,一遍写入就可以计算好的事,分了两步,做两遍。等了两个重建时间。

盘3、4、5、6、7、8,为RAID6。其中,7、8盘为新增。
第一遍,读3、4、5、6,写入7;
》没有截图,当时看到盘8无访问。与下面截图类似。
第二遍,读3、4、5、6、7,写入8.
》截图:
截屏2024-11-11 11.11.15.png
发表于 2024-11-11 11:25 | 显示全部楼层
要考虑风险的,一次一个盘,中间出现问题好修复
发表于 2024-11-11 11:26 | 显示全部楼层
一般情况下是不建议  扩容阵列的。。。真的很容易boom
 楼主| 发表于 2024-11-11 11:31 | 显示全部楼层
DSM这样做的风险增大了一倍,完全可以写7盘数据、写8盘数据同时进行。
没有扩容,是DSM另一个槽点,上电时后两个盘忘了插进去,结果触发了RAID6降级。然后插回去,就发生了上面的两次重建动作,完全可以更智能一点,甚至一遍写入都不用,就可以验证全盘。
发表于 2024-11-11 12:19 | 显示全部楼层
本帖最后由 powerduke 于 2024-11-11 12:21 编辑

raid6写入效率低下,机械硬盘加两块盘扩容,6块盘同时读取和写入,重建过程中不坏盘就谢天谢地了。
微信图片_20241111122008.png
发表于 2024-11-11 12:58 | 显示全部楼层
群晖扩容没啥意思
就是骗你多买两块硬盘
最后上八盘位或者买dx517
发表于 2024-11-11 14:40 | 显示全部楼层
一开始还用raid5,后来想了想,算了,不重要数据直接raid0,重要数据raid1
发表于 2024-11-11 14:47 | 显示全部楼层
我就想知道专业领域使用硬RAID卡的,同时增加2块乃至更多的硬盘进行RAID6扩容,是怎么个流程!是同时扩还是一块一块扩?RAID6扩容,是数据平均分配在每块硬盘的、还是可以允许有一块硬盘容量和其他硬盘不一样?
 楼主| 发表于 2024-11-11 15:24 | 显示全部楼层
雨季不再来 发表于 2024-11-11 14:47
我就想知道专业领域使用硬RAID卡的,同时增加2块乃至更多的硬盘进行RAID6扩容,是怎么个流程!是同时扩还是 ...

以前用硬RAID,Dell PERC卡带电池的,也都是一次扩。多一次扩多一次风险。允许盘容量不同,但只用共同的最小容量。群晖魔改的SHR,是在这个基础上,将剩余的空间可以继续建存储空间。
发表于 2024-11-11 15:32 | 显示全部楼层
hawie 发表于 2024-11-11 15:24
以前用硬RAID,Dell PERC卡带电池的,也都是一次扩。多一次扩多一次风险。允许盘容量不同,但只用共同的 ...

第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每块硬盘10T数据,变成每块硬盘7T不到的数据?
发表于 2024-11-11 15:35 | 显示全部楼层
换unraid吧
 楼主| 发表于 2024-11-11 15:41 | 显示全部楼层
雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...

每块都是10T的数据,冗余数据也是轮流给一个个盘的。
比如,以RAID5为例(简单些),1号盘写数据A,2号盘写数据B,3号写数据C,...6号盘写A^B^C^...(前面各盘的XOR异或值)。再下一批数据的冗余值,可能就轮到1号盘写2~6号盘的XOR值。再下一批就是2号盘,...类推。这里任何一块盘坏,用好的盘的值进行一遍XOR运算就轻易得出来缺失盘的数据了。
再说一个群晖干的相似魔改RAID F1,是把上面这个冗余盘不断变换的规则,改为固定死在某一个盘,说法是针对SSD容易同时挂掉,所以刻意让一个SSD(冗余盘)不同,造成要挂也是先挂掉冗余盘。
 楼主| 发表于 2024-11-11 15:44 | 显示全部楼层
雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...

字面意思理解你的问题,答案应是变成约7T有效数据,每个盘是均等分布的,要么是有效数据,要么是冗余数据。
 楼主| 发表于 2024-11-11 15:46 | 显示全部楼层

unraid要改用zfs才改进吧?
 楼主| 发表于 2024-11-11 15:55 | 显示全部楼层
雨季不再来 发表于 2024-11-11 15:32
第一点你理解错了,我的意思是6块10T RAID6,容量用完了,再加2块10T,是新加的硬盘上没数据呢?还是从每 ...

再来,补充一下,
对RAID5/6而言, 这个扩容的过程可以这么表达,是把每盘10T数据重新计算,改为每盘7T数据(包括冗余数据)并重写进去的过程。
这样扩容的弊端很明显,数据重构,时间长、风险大,尤其万一发生重构过程多于冗余盘的盘片损坏,整个RAID就崩了。
后来,TrueNas Scale之类主用的ZFS,就改为不动原来的RAID,扩容改为是针对原来的RAID增加一组同样的盘,作为整个原RAID的RAID01,相当于容量要扩就扩一倍(跟原来RAID一样的盘数量与容量),好处是叠加了一层RAID01,性能也得高了,容量也加了一倍。
发表于 2024-11-11 16:03 | 显示全部楼层
hawie 发表于 2024-11-11 15:55
再来,补充一下,
对RAID5/6而言, 这个扩容的过程可以这么表达,是把每盘10T数据重新计算,改为每盘7T数 ...

ZFS不是可以添加任意数量的硬盘吗?
发表于 2024-11-11 16:23 | 显示全部楼层
雨季不再来 发表于 2024-11-11 16:03
ZFS不是可以添加任意数量的硬盘吗?

貌似最新的openzfs才出来的功能,以前确实只能一组一组的加
 楼主| 发表于 2024-11-11 18:19 | 显示全部楼层
ZFS并不建议通过扩充单个vdev的硬盘数量来扩容存储池。一组组加,不影响原来盘的同时扩容,是更好的。
发表于 2024-11-11 19:37 | 显示全部楼层
用久了你会发现,最终还是 raid0 或者 raid1,或者直接 basic 走起
发表于 2024-11-11 19:41 | 显示全部楼层
本帖最后由 c2h6o 于 2024-11-11 19:42 编辑

不是群晖的问题,是LINUX的软RAID就这策略。
扩容也不会移动数据,只是重新做一次校验,把所有块的校验做出来。
只有RAID 2.0+技术的数据块RAID才有均衡数据的分布的功能。
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-26 14:51 , Processed in 0.011388 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表