编辑** 我有一个卷组,由 5 个 RAID1 设备组成,这些设备组合成一个 lvm 并使用 xfs 格式化。第 5 个 RAID 设备丢失了其 RAID 配置(cat /proc/mdstat 没有显示任何内容)。两个驱动器仍然存在(sdj 和 sdk),但它们没有分区。直到最近,LVM 似乎都在愉快地使用 sdj。(执行 pvscan 显示前 4 个 RAID1 设备 + /dev/sdj)我从 fstab 中删除了 LVM,重新启动,然后在 LV 上运行了 xfs_check。它运行了大约半个小时,然后因错误而停止。
我尝试再次重新启动,这次启动时,逻辑卷已不复存在。它现在正在寻找 /dev/md5,但 /dev/md5 已消失(尽管它之前一直在使用 /dev/sdj)。/dev/sdj 有读取错误,但在更换 SATA 电缆后,错误消失,因此驱动器目前似乎没有问题。
我可以修改 /etc/lvm/backup/dedvol,将设备更改为 /dev/sdj 并执行 vgcfgrestore 吗?我可以尝试执行 pvcreate --uuid KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ /dev/sdj 以使其识别它,但我担心这会擦除驱动器上的数据
更新:仅将 pv 更改为指向 /dev/sdj 不起作用
vgcfgrestore --file /etc/lvm/backup/dedvol dedvol 找不到 uuid 为“KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ”的设备。 无法恢复其中 1 个 PV 标记为丢失的卷组 dedvol。 还原失败。
扫描 /dev/sdj:在 0 处读取 4096 个中的 0 个后失败:输入/输出错误 找不到 uuid 为“KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ”的设备。 找不到 uuid 为“KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ”的设备。 找不到 uuid 为“KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ”的设备。 找不到 uuid 为“KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ”的设备。 PV /dev/sdd2 VG VolGroup00 lvm2 [74.41 GB / 0 可用] PV /dev/md2 VG dedvol lvm2 [931.51 GB / 0 可用] PV /dev/md3 VG dedvol lvm2 [931.51 GB / 0 可用] PV /dev/md0 VG dedvol lvm2 [931.51 GB / 0 可用] PV /dev/md4 VG dedvol lvm2 [931.51 GB / 0 可用] PV 未知设备 VG dedvol lvm2 [1.82 TB / 63.05 GB 可用] 总计:6 [5.53 TB] / 使用中:6 [5.53 TB] / 无 VG:0 [0 ]
扫描 正在读取所有物理卷。这可能需要一段时间... /dev/sdj:在 0 处读取 4096 个中的 0 个后失败:输入/输出错误 /dev/sdj: 在 2000398843904 处读取 4096 个中的 0 个后失败:输入/输出错误 使用元数据类型 lvm2 找到卷组“VolGroup00” 使用元数据类型 lvm2 找到卷组“dedvol”
vgdisplay dedvol --- 卷组 --- VG 名称 dedvol 系统 ID 格式化 lvm2 元数据区域 5 元数据序列号 10 VG 访问 读/写 VG 状态可调整大小 最高等级 0 当前 LV 1 打开 LV 0 最大 PV 0 当前 PV 5 第五幕 VG 大小 5.46 TB 大小 4.00 MB 总 PE 1430796 分配 PE / 大小 1414656 / 5.40 TB 空闲 PE / 大小 16140 / 63.05 GB VG UUID o1U6Ll-5WH8-Pv7Z-Rtc4-1qYp-oiWA-cPD246
已删除卷 { id =“o1U6Ll-5WH8-Pv7Z-Rtc4-1qYp-oiWA-cPD246” 序列号 = 10 状态 = [“可调整大小”,“读取”,“写入”] 标志 = [] 范围大小 = 8192 # 4 兆字节 最大有效长度 = 0 最大 pv = 0 物理卷 { 光伏0 { id =“Msiee7-Zovu-VSJ3-Y2hR-uBVd-6PaT-Ho9v95” device = "/dev/md2" # 仅提示 状态 = [“可分配”] 标志 = [] dev_size = 1953519872 # 931.511 GB pe_start = 384 pe_count = 238466 # 931.508 千兆字节 } 光伏1{ id =“ZittCN-0x6L-cOsW-v1v4-atVN-fEWF-e3lqUe” device = "/dev/md3" # 仅提示 状态 = [“可分配”] 标志 = [] dev_size = 1953519872 # 931.511 GB pe_start = 384 pe_count = 238466 # 931.508 千兆字节 } 光伏2 { id =“NRNo0w-kgGr-dUxA-mWnl-bU5v-Wld0-XeKVLD” device = "/dev/md0" # 仅提示 状态 = [“可分配”] 标志 = [] dev_size = 1953519872 # 931.511 GB pe_start = 384 pe_count = 238466 # 931.508 千兆字节 } pv3 { id =“2EfLFr-JcRe-MusW-mfAs-WCct-u4iV-W0pmG3” device = "/dev/md4" # 仅提示 状态 = [“可分配”] 标志 = [] dev_size = 1953519872 # 931.511 GB pe_start = 384 pe_count = 238466 # 931.508 千兆字节 } pv4 { id =“KZron2-pPTr-ZYeQ-PKXX-4Woq-6aNc-AG4rRJ” device = "/dev/md5" # 仅提示 状态 = [“可分配”] 标志 = [] dev_size = 3907028992 # 1.81935 TB pe_start = 384 pe_count = 476932 # 1.81935 TB } }
答案1
哇,您的系统被严重破坏了。如果足够小心和注意,您可能可以从 中的 LVM 状态档案中重建卷组中的 LV /etc/lvm/archives
,但只需取出备份(您确实有备份,对吧?)并重建系统(这次使用更强大的 RAID 设置 - 如果您有 10 个磁盘,为什么不只使用一个大的 RAID-10?)就会快得多。
为了让您放心,我非常怀疑如果您确实xfs_check
在 LV 上运行,它是否会对卷组造成任何破坏。更可能的情况是,它已经受到攻击,而您只是还没有注意到。