找回密码
 加入我们
搜索
      
查看: 4802|回复: 48

[NAS] 100T ZFS阵列重建记录

[复制链接]
发表于 2025-9-3 18:36 | 显示全部楼层 |阅读模式
一个使用99T总计165T阵列开始重建,记录一下进度
重要数据已经提前备份,就当看个乐呵,看官们猜猜能否重建成功

  1. root@truenas[~]# zpool status HDD_Pool
  2.   pool: HDD_Pool
  3. state: DEGRADED
  4. status: One or more devices is currently being resilvered.  The pool will
  5.         continue to function, possibly in a degraded state.
  6. action: Wait for the resilver to complete.
  7.   scan: resilver in progress since Wed Sep  3 17:51:54 2025
  8.         67.0T / 139T scanned at 28.8G/s, 1.04T / 106T issued at 456M/s
  9.         131G resilvered, 0.98% done, 2 days 19:13:44 to go
  10. config:

  11.         NAME                                        STATE     READ WRITE CKSUM
  12.         HDD_Pool                                    DEGRADED     0     0     0
  13.           raidz2-0                                  DEGRADED     0     0     0
  14.             f6b73c70-0f8b-4c7c-8b86-1d2a641083d2    ONLINE       0     0     0
  15.             187a219f-bf9b-4549-93bc-9bab511f1955    ONLINE       0     0     0
  16.             945e2d40-4762-40a4-93ac-555f69351940    ONLINE       0     0     0
  17.             replacing-3                             DEGRADED     0     0     0
  18.               6618d315-043a-411c-a002-42070f4007cf  OFFLINE      0     0     0
  19.               01b633db-552a-4054-8f41-bebeaae2c29b  ONLINE       0     0     0  (resilvering)
  20.             7acea294-4397-4c25-a10b-5e473d6c57fc    ONLINE       0     0     0
  21.             a6eab03d-e056-45d5-a53c-1ea904f0c914    ONLINE       0     0     0
  22.             ff15e2cf-b46e-49f4-90fe-d94103361f82    ONLINE       0     0     0
  23.             0d8237bc-2e13-4589-a5f8-6e538bef2e34    ONLINE       0     0     0
  24.           raidz2-1                                  ONLINE       0     0     0
  25.             d969847d-43de-4880-91c9-0ec882a92d3c    ONLINE       0     0     0
  26.             edaa37ce-0cc8-4aea-9405-d32847a10496    ONLINE       0     0     0
  27.             f838448d-d6da-4e95-82f0-89f361db5d28    ONLINE       0     0     0
  28.             874d5491-7b1f-4f3e-b1e2-88338faa4b4f    ONLINE       0     0     0
  29.             97fa7179-8c3c-40dd-a20c-568851aceed6    ONLINE       0     0     0
  30.             7952112e-d763-4d47-9701-3eade7211ffa    ONLINE       0     0     0
  31.             e8d5de84-6fcb-4a67-95a5-845050b48e45    ONLINE       0     0     0
  32.             ad35a341-4806-4932-8269-3eb88427e893    ONLINE       0     0     0

  33. errors: No known data errors
复制代码

评分

参与人数 1邪恶指数 +10 收起 理由
猪圈 + 10 支持一下

查看全部评分

发表于 2025-9-11 17:19 | 显示全部楼层


2手阵列卡贩子........
发表于 2025-9-10 10:39 | 显示全部楼层
我猜会失败?
 楼主| 发表于 2025-9-10 10:32 | 显示全部楼层
Nakor 发表于 2025-9-9 15:10
我也有一块盘总是比其他的高2-3度,换盘之后依然,感觉跟位置有关,跟盘的品牌型号关系不大。 ...

坏掉换下的那块HC550同样位置一样是38-39度,换成MG08就是33-34度,就算我把MG08移到最靠边空气流动较差的盘位也就34-35度……MG08比HC550温度低是公认的
发表于 2025-9-9 15:10 | 显示全部楼层
死也要爱钱 发表于 2025-9-4 14:56
这次替换盘用的是东芝MG08 16T,目前来看同样的使用环境下,MG08的温度为34度,比剩下15块HC550的37-38度要 ...

我也有一块盘总是比其他的高2-3度,换盘之后依然,感觉跟位置有关,跟盘的品牌型号关系不大。
发表于 2025-9-9 14:51 | 显示全部楼层
有什么大惊小怪的,raid5我都108tb了,上个月还加了一块盘,耗时一周,屁事没有
发表于 2025-9-9 05:47 | 显示全部楼层
这个速度可以的。这样子,让人安心,准备弄个raidz 2. 听说飞牛要支持zfs。有一些期待。
发表于 2025-9-9 03:26 | 显示全部楼层

阵列卡除了贵以外有什么好的,又不是当年什么都巴不得offload榨cpu性能的时代了
现在还吹阵列卡不是那个啥就是坏
发表于 2025-9-9 02:49 | 显示全部楼层
mdk2000 发表于 2025-9-6 17:13
那个什么阵列存储专家?

对啊
发表于 2025-9-8 15:49 | 显示全部楼层
看完这个,好想看看UNRAID和PVE下的ZFS是什么情况
发表于 2025-9-8 14:57 | 显示全部楼层
死也要爱钱 发表于 2025-9-8 14:14
mg08的动静要稍小一点,主要是不怎么炒豆子

非常感谢:)
发表于 2025-9-8 14:55 | 显示全部楼层
zexin4 发表于 2025-9-5 18:20
学习一下,不过现在看B站一个说,比较推崇硬阵列

这都什么GP专家,SDS都普及多少年了...
 楼主| 发表于 2025-9-8 14:14 | 显示全部楼层
0cjousc2 发表于 2025-9-8 10:13
请教大佬 MG08 噪音比HC550小很多吗

mg08的动静要稍小一点,主要是不怎么炒豆子
发表于 2025-9-8 11:16 | 显示全部楼层
brucelee1126 发表于 2025-9-3 18:46
zfs应该重建比较快的,估计用不了一天

这个就是文件系统和阵列高度融合的效果。
发表于 2025-9-8 11:14 | 显示全部楼层
好巧哈哈,我的pool也叫hdd-pool
  1. @homeserver ➜ /hdd-pool  zpool status
  2.   pool: hdd-pool
  3. state: ONLINE
  4.   scan: scrub repaired 0B in 18:01:03 with 0 errors on Tue Jul 15 11:22:36 2025
  5. config:

  6.         NAME                                STATE     READ WRITE CKSUM
  7.         hdd-pool                            ONLINE       0     0     0
  8.           ata-ST4000NM000A-2HZ100_WS20ATSR  ONLINE       0     0     0
  9.           ata-ST4000NM000B-2TF100_WRA04V7K  ONLINE       0     0     0
  10.           ata-ST4000VX007-2DT166_ZGY5E2F1   ONLINE       0     0     0
  11.           ata-ST8000NM000A-2KE101_WSDA2W5P  ONLINE       0     0     0
  12.         cache
  13.           ata-SDLF1DAM-800G-1HA1_A017711A   ONLINE       0     0     0
  14.           ata-SDLF1DAM-800G-1HA1_A01EE0D0   ONLINE       0     0     0

  15. errors: No known data errors
复制代码
发表于 2025-9-8 10:13 | 显示全部楼层
死也要爱钱 发表于 2025-9-4 14:56
这次替换盘用的是东芝MG08 16T,目前来看同样的使用环境下,MG08的温度为34度,比剩下15块HC550的37-38度要 ...

请教大佬 MG08 噪音比HC550小很多吗
发表于 2025-9-6 20:21 来自手机 | 显示全部楼层
只要供电稳定,散热做好,定期数据清理,阵列重建的时候还是稳的
发表于 2025-9-6 17:13 | 显示全部楼层
zexin4 发表于 2025-9-5 18:20
学习一下,不过现在看B站一个说,比较推崇硬阵列

那个什么阵列存储专家?
发表于 2025-9-6 14:53 | 显示全部楼层
brucelee1126 发表于 2025-9-5 18:36
我的预测还是比较准的

还好我没预测,我本来以为要2天的。

没接触过这么大的ZFS阵列重建。现在都不组阵列了,反正都是电影为主,单盘单存储池用着不心疼。
发表于 2025-9-6 14:44 | 显示全部楼层
感觉比btrfs的重建快不少
发表于 2025-9-5 18:36 | 显示全部楼层
brucelee1126 发表于 2025-9-3 18:46
zfs应该重建比较快的,估计用不了一天

我的预测还是比较准的
发表于 2025-9-5 18:20 | 显示全部楼层
学习一下,不过现在看B站一个说,比较推崇硬阵列
发表于 2025-9-5 10:22 | 显示全部楼层
自用18t*5 raid5 quts hero,ZFS真香!更换硬盘重建阵列比群晖速度快太多了!
 楼主| 发表于 2025-9-4 14:56 | 显示全部楼层
这次替换盘用的是东芝MG08 16T,目前来看同样的使用环境下,MG08的温度为34度,比剩下15块HC550的37-38度要明显低一些
 楼主| 发表于 2025-9-4 14:54 | 显示全部楼层
目前重建已完成,用时不到21小时
另外有两块盘上有校验错误,接下来按照之前经验zpool clear再scrub应该就可以自动纠错

  1. root@truenas[~]# zpool status HDD_Pool
  2.   pool: HDD_Pool
  3. state: ONLINE
  4. status: One or more devices has experienced an unrecoverable error.  An
  5.         attempt was made to correct the error.  Applications are unaffected.
  6. action: Determine if the device needs to be replaced, and clear the errors
  7.         using 'zpool clear' or replace the device with 'zpool replace'.
  8.    see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-9P
  9.   scan: resilvered 8.74T in 20:51:12 with 0 errors on Thu Sep  4 14:43:06 2025
  10. config:

  11.         NAME                                      STATE     READ WRITE CKSUM
  12.         HDD_Pool                                  ONLINE       0     0     0
  13.           raidz2-0                                ONLINE       0     0     0
  14.             f6b73c70-0f8b-4c7c-8b86-1d2a641083d2  ONLINE       0     0     0
  15.             187a219f-bf9b-4549-93bc-9bab511f1955  ONLINE       0     0     0
  16.             945e2d40-4762-40a4-93ac-555f69351940  ONLINE       0     0     0
  17.             01b633db-552a-4054-8f41-bebeaae2c29b  ONLINE       0     0     0
  18.             7acea294-4397-4c25-a10b-5e473d6c57fc  ONLINE       0     0 5.93K
  19.             a6eab03d-e056-45d5-a53c-1ea904f0c914  ONLINE       0     0     0
  20.             ff15e2cf-b46e-49f4-90fe-d94103361f82  ONLINE       0     0     0
  21.             0d8237bc-2e13-4589-a5f8-6e538bef2e34  ONLINE       0     0 9.29K
  22.           raidz2-1                                ONLINE       0     0     0
  23.             d969847d-43de-4880-91c9-0ec882a92d3c  ONLINE       0     0     0
  24.             edaa37ce-0cc8-4aea-9405-d32847a10496  ONLINE       0     0     0
  25.             f838448d-d6da-4e95-82f0-89f361db5d28  ONLINE       0     0     0
  26.             874d5491-7b1f-4f3e-b1e2-88338faa4b4f  ONLINE       0     0     0
  27.             97fa7179-8c3c-40dd-a20c-568851aceed6  ONLINE       0     0     0
  28.             7952112e-d763-4d47-9701-3eade7211ffa  ONLINE       0     0     0
  29.             e8d5de84-6fcb-4a67-95a5-845050b48e45  ONLINE       0     0     0
  30.             ad35a341-4806-4932-8269-3eb88427e893  ONLINE       0     0     0

  31. errors: No known data errors
复制代码
发表于 2025-9-4 14:51 | 显示全部楼层
下注了下注了
希望不会雪上加霜
发表于 2025-9-4 14:39 | 显示全部楼层
自用14t*4 raid5 quts hero,等一个恢复结果
发表于 2025-9-4 13:54 | 显示全部楼层
3天后来看结果
发表于 2025-9-4 12:37 | 显示全部楼层
只要硬件没故障,肯定100%恢复

truenas国内没什么人用,国外多的,起码百万规模
发表于 2025-9-4 11:20 | 显示全部楼层
关注ing
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-9-23 03:59 , Processed in 0.012735 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表