3 个驱动器从 Raid6 mdadm 中掉出来了——重建吗?

3 个驱动器从 Raid6 mdadm 中掉出来了——重建吗?

我有一个包含 13 个 1TB 驱动器的 mdadm raid6 阵列。10 分钟内,其中 3 个驱动器从阵列中掉出来...我们假设控制器卡的电缆坏了并更换了电缆,但现在我们需要将驱动器重新放入正常工作的阵列中。

由于 md0 被标记为失败,我们删除了 mdadm 阵列,并使用原始 13 个驱动器创建了一个新的 md0。重建期间 1 再次失败,因此我们现在有一个降级的 md0。问题是 lvm 看不到 mdadm 中存在的阵列。我们可以做些什么来恢复数据?

$pvscan

PV /dev/sda5   VG nasbox   lvm2 [29.57 GiB / 0    free]
  Total: 1 [29.57 GiB] / in use: 1 [29.57 GiB] / in no VG: 0 [0   ]

$cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid6 sdc1[1] sdg1[5] sdb1[0] sdf1[4] sde1[3] sdd1[2] sdi1[7] sdl1[10] dm1[11] sdh1[6] sdj1[8] sdn1[12]
      10744336064 blocks super 1.2 level 6, 64k chunk, algorithm 2 [13/12] [UUUUUUUUU_UUU]

unused devices: <none>

我认为我们需要做的是让 lvm 检测 mdadm 阵列,以便我们可以安装它,但如果我在 LVM 中创建一个新的卷组,它将从阵列中擦除所有数据。

简单地说,我们如何从 md0 获取数据......

更新:我们的一位系统管理员能够恢复 LVM 配置备份,因此它现在显示在 LVM 中,但我们仍然无法安装驱动器来查看数据。可能是分区表有问题?

$pvscan

PV /dev/sda5   VG nasbox   lvm2 [29.57 GiB / 0    free]
PV /dev/md0    VG zeus     lvm2 [10.01 TiB / 4.28 TiB free]
Total: 2 [10.04 TiB] / in use: 2 [10.04 TiB] / in no VG: 0 [0   ]

$mount /dev/md0

mount: /dev/mapper/zeus-data already mounted or /mnt/zeus busy

答案1

信息取自这篇文章,看看是否有帮助:http://www.linuxjournal.com/article/8874

pvscan显示存在 LVM 物理卷,但 LVM 卷组不一定处于活动状态。查看 的输出vgdisplay,应该是这样的

--- Volume group ---
VG Name              zeus
System ID
Format               lvm2
[...]

如果zeus卷组未显示,您可能需要使用 使其可用vgchange zeus -a y。然后,检查 的输出lvdisplay。这应该会输出系统中的每个逻辑卷:

--- Logical volume ---
LV Name                /dev/zeus/volume_name
VG Name                zeus
LV Status              available
[etc...]

并且您应该能够使用 挂载所需的卷mount /dev/zeus/volume_name /mnt/target

相关内容