我有一个包含 10 个驱动器的系统,使用 RAID 6 运行 Linux 软件 RAID。今天系统停止响应,需要进行硬电源循环。RAID 上的文件系统(注意,不是根文件系统,根文件系统位于其自己的驱动器上)完好无损,数据仍然存在。但我在启动过程中注意到:
raid5: raid level 6 set md0 active with 9 out of 10 devices, algorithm 2
RAID5 conf printout:
--- rd:10 wd:9
disk 0, o:1, dev:sdb1
disk 2, o:1, dev:sdc1
disk 3, o:1, dev:sdd1
disk 4, o:1, dev:sde1
disk 5, o:1, dev:sdj1
disk 6, o:1, dev:sdi1
disk 7, o:1, dev:sdh1
disk 8, o:1, dev:sdg1
disk 9, o:1, dev:sdf1
md0: detected capacity change from 0 to 16003169779712
第一部分并不让我感到惊讶,似乎只是一个驱动器掉线了。没什么大不了的,RAID 就是为处理这种情况而设计的。但最后一点让我担心。我不喜欢 RAID 上的“容量变化”一词。
正如我之前所说,文件系统很好。与之前相比没有变化:
Filesystem Type Size Used Avail Use% Mounted on
/dev/root ext4 73G 6.8G 63G 10% /
proc proc 0 0 0 - /proc
sysfs sysfs 0 0 0 - /sys
usbfs usbfs 0 0 0 - /proc/bus/usb
tmpfs tmpfs 1.7G 0 1.7G 0% /dev/shm
/dev/md0 xfs 15T 9.5T 5.2T 65% /mnt/data
但/proc/mdstat
这样说:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid6 sdk1[10] sdi1[6] sdh1[7] sdg1[8] sdf1[9] sdj1[5] sdd1[3] sde1[4] sdb1[0] sdc1[2]
15628095488 blocks level 6, 64k chunk, algorithm 2 [10/9] [U_UUUUUUUU]
[>....................] recovery = 0.7% (15060864/1953511936) finish=2053.3min speed=15733K/sec
unused devices: <none>
注意[10/9]
。我以前看到过[9/10]
驱动器错误退出时出现的情况。重新同步后,它又恢复到了[10/10]
预期状态。但这是否意味着其他事情?除了让它结束之外,还需要做其他事情吗?RAID 是否以某种方式改变了其形状?
答案1
您获得 [10/9] 是因为处于“同步”状态的磁盘被视为“热备用”驱动器。因此有 9 个驱动器处于“活动”状态,1 个驱动器为备用:阵列中有 10 个驱动器。同步过程完成后,您会再次获得 [10/10],因为所有驱动器都处于“活动”状态。