/dev/md0 丢失了驱动器?

/dev/md0 丢失了驱动器?

我有一个包含 10 个驱动器的系统,使用 RAID 6 运行 Linux 软件 RAID。今天系统停止响应,需要进行硬电源循环。RAID 上的文件系统(注意,不是根文件系统,根文件系统位于其自己的驱动器上)完好无损,数据仍然存在。但我在启动过程中注意到:

raid5: raid level 6 set md0 active with 9 out of 10 devices, algorithm 2
RAID5 conf printout:
 --- rd:10 wd:9
 disk 0, o:1, dev:sdb1
 disk 2, o:1, dev:sdc1
 disk 3, o:1, dev:sdd1
 disk 4, o:1, dev:sde1
 disk 5, o:1, dev:sdj1
 disk 6, o:1, dev:sdi1
 disk 7, o:1, dev:sdh1
 disk 8, o:1, dev:sdg1
 disk 9, o:1, dev:sdf1
md0: detected capacity change from 0 to 16003169779712

第一部分并不让我感到惊讶,似乎只是一个驱动器掉线了。没什么大不了的,RAID 就是为处理这种情况而设计的。但最后一点让我担心。我不喜欢 RAID 上的“容量变化”一词。

正如我之前所说,文件系统很好。与之前相比没有变化:

Filesystem    Type    Size  Used Avail Use% Mounted on
/dev/root     ext4     73G  6.8G   63G  10% /
proc          proc       0     0     0   -  /proc
sysfs        sysfs       0     0     0   -  /sys
usbfs        usbfs       0     0     0   -  /proc/bus/usb
tmpfs        tmpfs    1.7G     0  1.7G   0% /dev/shm
/dev/md0       xfs     15T  9.5T  5.2T  65% /mnt/data

/proc/mdstat这样说:

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] 
md0 : active raid6 sdk1[10] sdi1[6] sdh1[7] sdg1[8] sdf1[9] sdj1[5] sdd1[3] sde1[4] sdb1[0] sdc1[2]
      15628095488 blocks level 6, 64k chunk, algorithm 2 [10/9] [U_UUUUUUUU]
      [>....................]  recovery =  0.7% (15060864/1953511936) finish=2053.3min speed=15733K/sec

unused devices: <none>

注意[10/9]。我以前看到过[9/10]驱动器错误退出时出现的情况。重新同步后,它又恢复到了[10/10]预期状态。但这是否意味着其他事情?除了让它结束之外,还需要做其他事情吗?RAID 是否以某种方式改变了其形状?

答案1

您获得 [10/9] 是因为处于“同步”状态的磁盘被视为“热备用”驱动器。因此有 9 个驱动器处于“活动”状态,1 个驱动器为备用:阵列中有 10 个驱动器。同步过程完成后,您会再次获得 [10/10],因为所有驱动器都处于“活动”状态。

相关内容