断电后,我的 RAID 阵列拒绝启动。启动时,我必须
sudo mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1
让 mdadm 注意到该数组。
以下是详细信息(在我强制组装之后)。
sudo mdadm --misc --detail /dev/md0:
/dev/md0:
Version : 00.90
Creation Time : Sun Apr 25 01:39:25 2010
Raid Level : raid5
Used Dev Size : 1465135872 (1397.26 GiB 1500.30 GB)
Raid Devices : 6
Total Devices : 6
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Thu Jun 17 23:02:38 2010
State : active, Not Started
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 128K
UUID : 44a8f730:b9bea6ea:3a28392c:12b22235 (local to host hodge-fs)
Events : 0.1249691
Number Major Minor RaidDevice State
0 8 65 0 active sync /dev/sde1
1 8 81 1 active sync /dev/sdf1
2 8 97 2 active sync /dev/sdg1
3 8 49 3 active sync /dev/sdd1
4 8 33 4 active sync /dev/sdc1
5 8 17 5 active sync /dev/sdb1
mdadm.conf:
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions /dev/sdb1 /dev/sdb1
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=6 UUID=44a8f730:b9bea6ea:3a28392c:12b22235
任何帮助,将不胜感激。
答案1
问题--运行
由于您没有使用 --scan(它将在您的配置文件中搜索所需的任何缺失数据),mdadm 不会自动启动该阵列。
运行后,备份 /etc/mdadm/mdadm.conf,然后运行:
/usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf
这将使用阵列数据重新创建 mdadm.conf 文件。
答案2
为什么在 mdadm.conf 中只有 2 个设备,但您的 raid 使用 6 个分区。
尝试将所有 6 个设备添加到 mdadm.conf。