RAID 阵列损坏,未检测到超级块

RAID 阵列损坏,未检测到超级块

我运行 CentOS 系统,其中 RAID1 中有 2 个 SSD,RAID10 中有 4 个 SAS 驱动器。Linux 安装在 RAID1 阵列上。

今天早上我发现我的 RAID10 阵列 (md4) 不见了,而且我的 RAID1 阵列 (m2/m3) 也坏了。我smartctl在所有驱动器上运行了,它们都报告正常。

我检查了突袭阵列:

[root@m1 etc]# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md4 : inactive sdh1[2](S) sdg1[3](S) sdf1[1](S) sde1[0](S)
      46875008958 blocks super 1.2

md3 : active raid1 sdb3[1]
      447318976 blocks [2/1] [_U]
      bitmap: 2/4 pages [8KB], 65536KB chunk

md2 : active raid1 sdb2[1]
      20478912 blocks [2/1] [_U]

unused devices: <none>

看起来 md2 和 md3 的状态都不太好,而且我的 md127 现在不知何故被称为 m4,并且设置为非活动状态。

文件系统上的许多文件夹我都无法访问了,例如 /home 和 /etc,但还有很多。读取这样的目录时,我收到此错误:

[root@m1 etc]# dir
-bash: /usr/bin/dir: Input/output error

检查 md3 显示:

[root@m1 etc]# mdadm --detail /dev/md3
/dev/md3:
           Version : 0.90
     Creation Time : Mon Oct  7 10:46:06 2019
        Raid Level : raid1
        Array Size : 447318976 (426.60 GiB 458.05 GB)
     Used Dev Size : 447318976 (426.60 GiB 458.05 GB)
      Raid Devices : 2
     Total Devices : 1
   Preferred Minor : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Mon Oct 21 01:59:57 2019
             State : clean, degraded
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       19        1      active sync

但使用examine表演:

[root@m1 etc]# mdadm --examine /dev/md3
mdadm: No md superblock detected on /dev/md3.

例如,由于 /etc 无法访问,许多重要的系统文件无法访问,这也许就是我的 md127 阵列也丢失的原因。我认为第一步应该是修复 md2/md3。由于它是 RAID1,我认为至少 2 个驱动器中的 1 个上的数据应该完好无损。

我怎样才能恢复这些md2md3RAID 阵列以便恢复我的数据?

相关内容