我有一个包含 13 个 1TB 驱动器的 mdadm raid6 阵列。10 分钟内,其中 3 个驱动器从阵列中掉出来...我们假设控制器卡的电缆坏了并更换了电缆,但现在我们需要将驱动器重新放入正常工作的阵列中。
由于 md0 被标记为失败,我们删除了 mdadm 阵列,并使用原始 13 个驱动器创建了一个新的 md0。重建期间 1 再次失败,因此我们现在有一个降级的 md0。问题是 lvm 看不到 mdadm 中存在的阵列。我们可以做些什么来恢复数据?
$pvscan
PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free]
Total: 1 [29.57 GiB] / in use: 1 [29.57 GiB] / in no VG: 0 [0 ]
$cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid6 sdc1[1] sdg1[5] sdb1[0] sdf1[4] sde1[3] sdd1[2] sdi1[7] sdl1[10] dm1[11] sdh1[6] sdj1[8] sdn1[12]
10744336064 blocks super 1.2 level 6, 64k chunk, algorithm 2 [13/12] [UUUUUUUUU_UUU]
unused devices: <none>
我认为我们需要做的是让 lvm 检测 mdadm 阵列,以便我们可以安装它,但如果我在 LVM 中创建一个新的卷组,它将从阵列中擦除所有数据。
简单地说,我们如何从 md0 获取数据......
更新:我们的一位系统管理员能够恢复 LVM 配置备份,因此它现在显示在 LVM 中,但我们仍然无法安装驱动器来查看数据。可能是分区表有问题?
$pvscan
PV /dev/sda5 VG nasbox lvm2 [29.57 GiB / 0 free]
PV /dev/md0 VG zeus lvm2 [10.01 TiB / 4.28 TiB free]
Total: 2 [10.04 TiB] / in use: 2 [10.04 TiB] / in no VG: 0 [0 ]
$mount /dev/md0
mount: /dev/mapper/zeus-data already mounted or /mnt/zeus busy
答案1
信息取自这篇文章,看看是否有帮助:http://www.linuxjournal.com/article/8874
pvscan
显示存在 LVM 物理卷,但 LVM 卷组不一定处于活动状态。查看 的输出vgdisplay
,应该是这样的
--- Volume group ---
VG Name zeus
System ID
Format lvm2
[...]
如果zeus
卷组未显示,您可能需要使用 使其可用vgchange zeus -a y
。然后,检查 的输出lvdisplay
。这应该会输出系统中的每个逻辑卷:
--- Logical volume ---
LV Name /dev/zeus/volume_name
VG Name zeus
LV Status available
[etc...]
并且您应该能够使用 挂载所需的卷mount /dev/zeus/volume_name /mnt/target
。