我的 5 级 RAID 中有一个磁盘坏了,在我更换它之前,我在向 RAID 上复制一些数据时,它就崩溃了。
阅读RAID 内核 wiki 中有关 RAID 恢复的内容我尝试强制组装但没有成功:
# mdadm --assemble --force /dev/md1 /dev/sda1 /dev/sdc1
mdadm: /dev/md1 assembled from 1 drive - not enough to start the array.
结果mdadm --examine
是:
/dev/sda1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 2f3274a9:e3975c44:43e0066f:3c4e819d
Name : Jupiter:1
Creation Time : Sun Aug 26 17:41:46 2012
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907025072 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 6c242f92:9b39c56a:c238964e:82ed1fdd
Internal Bitmap : 8 sectors from superblock
Update Time : Sat Sep 21 11:20:47 2013
Checksum : e38c9e3b - correct
Events : 13880
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .A. ('A' == active, '.' == missing)
/dev/sdc1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x3
Array UUID : 2f3274a9:e3975c44:43e0066f:3c4e819d
Name : Jupiter:1
Creation Time : Sun Aug 26 17:41:46 2012
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907025072 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 8 sectors
Recovery Offset : 395033224 sectors
State : clean
Device UUID : 0aa93873:826723b0:5e73d226:dd8a8071
Internal Bitmap : 8 sectors from superblock
Update Time : Mon Aug 5 05:11:05 2013
Checksum : 8ddf93da - correct
Events : 13298
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing)
我最初的想法是阅读维基百科这是因为事件计数差异太大,mdadm 无法重新组装阵列。
我很困惑,因为到目前为止我已经成功地将数据复制到阵列,所以我不知道为什么事件计数会相差这么远。
我非常不想丢失数据,但我显然需要启动 RAID,然后添加新的第三个磁盘。