全新安装后重新安装不完美的 RAID 6

全新安装后重新安装不完美的 RAID 6

我正在运行一个小型实验室服务器(中间登录和数据存储)。它有 5 个物理驱动器:一个 (sda) 用于/,另一个 4 驱动器 RAID 6 (sd[be]) 用于/home。由于硬件故障,我不得不更换第一个驱动器。

现在,在新的驱动器上重新安装了系统后,我想重新安装 RAID 并重新添加用户。但是,我遇到了一个问题:

mdadm --detail /dev/md/old_raid\:0提示 sdb 不好:

           Version : 1.2
     Creation Time : Thu Oct 20 11:29:38 2016
        Raid Level : raid6
        Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
     Used Dev Size : 2147351040 (2047.87 GiB 2198.89 GB)
      Raid Devices : 4
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Sat Sep 14 12:26:45 2019
             State : clean, degraded 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : Asna2:0
              UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
            Events : 521636

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       4       8       32        1      active sync   /dev/sdc
       2       8       49        2      active sync   /dev/sdd1
       3       8       65        3      active sync   /dev/sde1

但是, mdadm --examine/dev/sdb1列出了这一点:

          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
           Name : Asna2:0
  Creation Time : Thu Oct 20 11:29:38 2016
     Raid Level : raid6
   Raid Devices : 4

 Avail Dev Size : 4294703103 (2047.87 GiB 2198.89 GB)
     Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262064 sectors, after=1023 sectors
          State : clean
    Device UUID : a0aecf87:70ed61b2:3e36eb5c:8204d8f4

    Update Time : Wed Sep  4 00:39:22 2019
       Checksum : f0a3c084 - correct
         Events : 253375

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAA ('A' == active, '.' == missing, 'R' == replacing)

并且mdadm --examine /dev/sdc(显然一些坏块已经潜入):

          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 2cabe272:892c0ac8:9d5b8a30:75393439
           Name : Asna2:0
  Creation Time : Thu Oct 20 11:29:38 2016
     Raid Level : raid6
   Raid Devices : 4

 Avail Dev Size : 5860271024 (2794.39 GiB 3000.46 GB)
     Array Size : 4294702080 (4095.75 GiB 4397.77 GB)
  Used Dev Size : 4294702080 (2047.87 GiB 2198.89 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=1565568944 sectors
          State : clean
    Device UUID : df8c2562:f7adc18e:6ae7246f:02ebe494

    Update Time : Sat Sep 14 12:26:45 2019
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : b70b8fa1 - correct
         Events : 521636

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .AAA ('A' == active, '.' == missing, 'R' == replacing)

编辑:除了坏块部分外,sdd 和 sde 的打印输出与 sdc 的相同。

我是否正确理解了,最好的做法是

1)删除 sdb 和 sdc

2)将 sdb 清零(或者购买第二个备用驱动器,那些是 3Tb WD 红色,非常昂贵)

3)祈祷并重建阵列

或者是否存在其他不那么极端的解决方案?

相关内容