几天前,我的 RAID10 阵列出现故障,我不得不承认,我对这一切一无所知。我在 Google 上搜索了很久,但还是不明白到底发生了什么。
如果这里有人可以提供一些见解,让我朝着半生产性的方向前进,我将非常感激。
我已在此处发布了 dmesg 和 mdadm 的输出:http://pastebin.com/PwtaHP9e
root@sysresccd /root%cat /proc/mdstat 个性:[线性] [多路径] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md1 :非活动 sdb2[2](S) sda2[4](S) sdd2[3](S) sdc2[1](S) 3905625088 块超级 1.1 md0 :活动 raid1 sdc1[1] sdd1[3] sdb1[2] 255936 块超级 1.0 [4/3] [_UUU] 未使用的设备:
root@sysresccd /root%dmesg|grep raid [10.228754]md:raid0 个性注册为级别 0 [10.230465]md:raid1 个性注册为1级 [10.255010]raid6: int64x1 2039 MB/s [10.272036]raid6: int64x2 2265 MB/s [10.289035]raid6: int64x4 1949 MB/s [10.306028]raid6: int64x8 1425 MB/s [10.323032]raid6: sse2x1 3218 MB/s [10.340017]raid6: sse2x2 4085 MB/s [10.357021]raid6: sse2x4 6691 MB/s [10.357022]raid6:使用算法sse2x4(6691 MB/s) [ 10.358839] md: raid6 角色已注册为 6 级 [ 10.358846] md: raid5 角色已注册为 5 级 [ 10.358847] md: raid4 个性注册为 4 级 [10.363035]md:raid10 人格注册级别 10 [ 10.750614] md/raid1:md0: 4 个镜像中有 3 个处于活动状态 [ 44.530653] md: sda1 上的 raid 超级块魔法无效 root@sysresccd /root% root@sysresccd /root%dmesg|grep md [ 0.000000] Linux 版本 3.2.28-std300-amd64 (root@catalyst) (gcc 版本 4.4.7 (Gentoo 4.4.7 p1.0, pie-0.4.5) ) #2 SMP 2012 年 8 月 21 日星期二 18:35:38 UTC [2.568955]usb usb1:制造商:Linux 3.2.28-std300-amd64 ehci_hcd [2.584953]usb usb2:制造商:Linux 3.2.28-std300-amd64 ehci_hcd [2.588163]usb usb3:制造商:Linux 3.2.28-std300-amd64 uhci_hcd [2.590887]usb usb4:制造商:Linux 3.2.28-std300-amd64 uhci_hcd [2.597811]usb usb5:制造商:Linux 3.2.28-std300-amd64 uhci_hcd [2.600571]usb usb6:制造商:Linux 3.2.28-std300-amd64 uhci_hcd [10.225876]md:线性个性注册级别-1 [ 10.227323] md: 多路径个性注册级别 -4 [10.228754]md:raid0 个性注册为级别 0 [10.230465]md:raid1 个性注册为1级 [ 10.358839] md: raid6 角色已注册为 6 级 [ 10.358846] md: raid5 角色已注册为 5 级 [ 10.358847] md: raid4 个性注册为 4 级 [10.363035]md:raid10 人格注册级别 10 [10.733472]md:md0已停止。 [10.734535]md:绑定 [10.734667]md:绑定 [10.734803]md:绑定 [10.734942]md:绑定 [10.734958]md:从阵列中踢出非新鲜的sda1! [10.734963]md:解除绑定 [10.749093]md:导出_rdev(sda1) [ 10.750614] md/raid1:md0: 4 个镜像中有 3 个处于活动状态 [10.750641]md0:检测到容量变化从0到262078464 [10.751856]md0:未知分区表 [10.992977]md:md1已停止。 [10.994538]md:绑定 [10.994672]md:绑定 [10.994820]md:绑定 [10.994982]md:绑定 [ 44.523203]md:自动检测 RAID 阵列。 [ 44.530653] md: sda1 上的 raid 超级块魔法无效 [ 44.530656] md:sda1 没有有效的 v0.90 超级块,无法导入! [ 44.530701] md: 无法打开未知块(8,2)。 [ 44.530711] md: 无法打开未知块(8,17)。 [ 44.530714] md: 无法打开未知块(8,18)。 [ 44.530718] md: 无法打开未知块(8,33)。 [ 44.530722] md: 无法打开未知块(8,34)。 [ 44.530726] md: 无法打开未知块(8,49)。 [ 44.530729] md: 无法打开未知块(8,50)。 [ 44.530731] md: 已扫描 8 个设备并添加了 0 个设备。 [44.530732]md:自动运行... [ 44.530733] md:...自动运行完成。 root@sysresccd /root%mdadm--assemble--scan-v mdadm:正在寻找设备以进行进一步组装 mdadm:/dev/md/0 上没有可识别的超级块 mdadm:无法打开设备 /dev/sr0:未找到介质 mdadm:无法打开设备 /dev/sdd2:设备或资源繁忙 mdadm:无法打开设备 /dev/sdd1:设备或资源繁忙 mdadm:无法打开设备 /dev/sdd:设备或资源繁忙 mdadm:无法打开设备 /dev/sdc2:设备或资源繁忙 mdadm:无法打开设备 /dev/sdc1:设备或资源繁忙 mdadm:无法打开设备 /dev/sdc:设备或资源繁忙 mdadm:无法打开设备 /dev/sdb2:设备或资源繁忙 mdadm:无法打开设备 /dev/sdb1:设备或资源繁忙 mdadm:无法打开设备 /dev/sdb:设备或资源繁忙 mdadm:无法打开设备 /dev/sda2:设备或资源繁忙 mdadm:无法打开设备 /dev/sda:设备或资源繁忙 mdadm:无法打开设备 /dev/loop0:设备或资源繁忙 mdadm:/dev/sda1 被标识为 /dev/md/localhost.localdomain:0、插槽 0 的成员。 mdadm: /dev/md/localhost.localdomain:0 的插槽 1 没有最新设备 mdadm: /dev/md/localhost.localdomain:0 的插槽 2 没有最新设备 mdadm: /dev/md/localhost.localdomain:0 的插槽 3 没有最新设备 mdadm:将 /dev/sda1 添加到 /dev/md/localhost.localdomain:0 作为 0 mdadm:/dev/md/localhost.localdomain:0 已从 1 个驱动器(共 4 个)启动。 mdadm:正在寻找设备以进行进一步组装 mdadm:正在寻找设备以进行进一步组装 mdadm:/dev/md/0 上没有可识别的超级块 mdadm:/dev/md/0 上没有可识别的超级块 mdadm:无法打开设备 /dev/sr0:未找到介质 mdadm:无法打开设备 /dev/sdd2:设备或资源繁忙 mdadm:无法打开设备 /dev/sdd1:设备或资源繁忙 mdadm:无法打开设备 /dev/sdd:设备或资源繁忙 mdadm:无法打开设备 /dev/sdc2:设备或资源繁忙 mdadm:无法打开设备 /dev/sdc1:设备或资源繁忙 mdadm:无法打开设备 /dev/sdc:设备或资源繁忙 mdadm:无法打开设备 /dev/sdb2:设备或资源繁忙 mdadm:无法打开设备 /dev/sdb1:设备或资源繁忙 mdadm:无法打开设备 /dev/sdb:设备或资源繁忙 mdadm:无法打开设备 /dev/sda2:设备或资源繁忙 mdadm:无法打开设备 /dev/sda1:设备或资源繁忙 mdadm:无法打开设备 /dev/sda:设备或资源繁忙 mdadm:无法打开设备 /dev/loop0:设备或资源繁忙
root@sysresccd /root%mdadm——检查/dev/sd[abcd]2 /dev/sda2: 魔法:a92b4efc 版本:1.1 特征图:0x1 数组 UUID:160f35df:54055a13:77806c03:b12aea12 名称:localhost.localdomain:1 创建时间:2013 年 9 月 12 日星期四 02:37:10 突袭级别:raid10 突袭设备:4 可用开发大小:1953007616 (931.27 GiB 999.94 GB) 数组大小:3905492992(1862.28 GiB 1999.61 GB) 已使用设备大小:1952746496 (931.14 GiB 999.81 GB) 数据偏移:2048 个扇区 超级偏移:0 个扇区 状态:干净 设备 UUID:ae4e65b3:95c4da54:d295cf4c:de32e851 内部位图:超级块中的 8 个扇区 更新时间:2013年10月21日星期一02:21:07 校验和:f86dd3de-正确 活动:0 布局:near=2 区块大小:512K 设备角色:备用 数组状态:..AA('A' == 活动,'.' == 缺失) /dev/sdb2: 魔法:a92b4efc 版本:1.1 特征图:0x1 数组 UUID:160f35df:54055a13:77806c03:b12aea12 名称:localhost.localdomain:1 创建时间:2013 年 9 月 12 日星期四 02:37:10 突袭级别:raid10 突袭设备:4 可用开发大小:1952747520 (931.14 GiB 999.81 GB) 数组大小:3905492992(1862.28 GiB 1999.61 GB) 已使用设备大小:1952746496 (931.14 GiB 999.81 GB) 数据偏移:262144 个扇区 超级偏移:0 个扇区 状态:干净 设备 UUID:9fdb73ad:ab3b67ef:62cf56cb:48a7cbae 内部位图:超级块中的 8 个扇区 更新时间:2013年10月21日星期一02:21:07 校验和:6873c900-正确 活动:17186 布局:near=2 区块大小:512K 设备角色 : 活动设备 2 数组状态:..AA('A' == 活动,'.' == 缺失) /dev/sdc2: 魔法:a92b4efc 版本:1.1 特征图:0x1 数组 UUID:160f35df:54055a13:77806c03:b12aea12 名称:localhost.localdomain:1 创建时间:2013 年 9 月 12 日星期四 02:37:10 突袭级别:raid10 突袭设备:4 可用开发大小:1952747520 (931.14 GiB 999.81 GB) 数组大小:3905492992(1862.28 GiB 1999.61 GB) 已使用设备大小:1952746496 (931.14 GiB 999.81 GB) 数据偏移:262144 个扇区 超级偏移:0 个扇区 状态:干净 设备 UUID:5d5f5fbf:4b2140f9:3f622131:79f52f32 内部位图:超级块中的 8 个扇区 更新时间:2013年10月21日星期一02:08:42 校验和:6d691077-正确 活动:17175 布局:near=2 区块大小:512K 设备角色 : 活动设备 1 数组状态:AAAA('A' == 活动,'.' == 缺失) /dev/sdd2: 魔法:a92b4efc 版本:1.1 特征图:0x1 数组 UUID:160f35df:54055a13:77806c03:b12aea12 名称:localhost.localdomain:1 创建时间:2013 年 9 月 12 日星期四 02:37:10 突袭级别:raid10 突袭设备:4 可用开发大小:1952747520 (931.14 GiB 999.81 GB) 数组大小:3905492992(1862.28 GiB 1999.61 GB) 已使用设备大小:1952746496 (931.14 GiB 999.81 GB) 数据偏移:262144 个扇区 超级偏移:0 个扇区 状态:干净 设备 UUID:57e6e332:c199a57b:94846dd1:5551635d 内部位图:超级块中的 8 个扇区 更新时间:2013年10月21日星期一02:21:07 校验和:2ed0910d-正确 活动:17186 布局:near=2 区块大小:512K 设备角色 : 活动设备 3 数组状态:..AA('A' == 活动,'.' == 缺失)
答案1
事情看起来确实很奇怪。您的驱动器 sda 是否发生故障?您是否更换了它?
md0 处于活动状态,但有一个磁盘发生故障。这应该不是问题,您可以直接安装它。要修复它,您需要mdadm /dev/md0 -a /dev/sda1
再次添加被踢出的 sda1,然后它应该会重新同步。
md1 已停止,我不知道具体原因。也许您可以使用 来启动它,mdadm --run /dev/md1
或者添加--force
。如果可行,它应该会开始重新同步,因为 sda2 被标记为备用。
如果此方法无效,您可能需要完全重建 md1,但数据会丢失。由于设备目前已添加到 raid 中,因此您必须先使用 删除它们mdadm /dev/md1 --remove /dev/sda2 --remove /dev/sdb2 --remove /dev/sdc2 --remove /dev/sdd2/
,然后使用 重建它mdadm --create /dev/md1 --level=10 /dev/sda2 /dev/sdb2 /dev/sdc2 /dev/sdd2
也许您必须先使用 --fail 来让 md1 放行所有设备。也许您必须先使用 --zero-superblock 来重新创建。
祝你好运。