我运行 CentOS 系统,其中 RAID1 中有 2 个 SSD,RAID10 中有 4 个 SAS 驱动器。Linux 安装在 RAID1 阵列上。
今天早上我发现我的 RAID10 阵列 (md4) 不见了,而且我的 RAID1 阵列 (m2/m3) 也坏了。我smartctl
在所有驱动器上运行了,它们都报告正常。
我检查了突袭阵列:
[root@m1 etc]# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md4 : inactive sdh1[2](S) sdg1[3](S) sdf1[1](S) sde1[0](S)
46875008958 blocks super 1.2
md3 : active raid1 sdb3[1]
447318976 blocks [2/1] [_U]
bitmap: 2/4 pages [8KB], 65536KB chunk
md2 : active raid1 sdb2[1]
20478912 blocks [2/1] [_U]
unused devices: <none>
看起来 md2 和 md3 的状态都不太好,而且我的 md127 现在不知何故被称为 m4,并且设置为非活动状态。
文件系统上的许多文件夹我都无法访问了,例如 /home 和 /etc,但还有很多。读取这样的目录时,我收到此错误:
[root@m1 etc]# dir
-bash: /usr/bin/dir: Input/output error
检查 md3 显示:
[root@m1 etc]# mdadm --detail /dev/md3
/dev/md3:
Version : 0.90
Creation Time : Mon Oct 7 10:46:06 2019
Raid Level : raid1
Array Size : 447318976 (426.60 GiB 458.05 GB)
Used Dev Size : 447318976 (426.60 GiB 458.05 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Oct 21 01:59:57 2019
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 19 1 active sync
但使用examine
表演:
[root@m1 etc]# mdadm --examine /dev/md3
mdadm: No md superblock detected on /dev/md3.
例如,由于 /etc 无法访问,许多重要的系统文件无法访问,这也许就是我的 md127 阵列也丢失的原因。我认为第一步应该是修复 md2/md3。由于它是 RAID1,我认为至少 2 个驱动器中的 1 个上的数据应该完好无损。
我怎样才能恢复这些md2
和md3
RAID 阵列以便恢复我的数据?