在更换其中一个磁盘后,我的 RAID1 阵列 /dev/md1 正在重建。问题:源磁盘有不可恢复的错误,如果我不想丢失整个数据集(没有备份,没有借口),我唯一的选择就是耐心地用hdparm --write-sector 0123456789 --yes-i-know-what-i-am-doing /dev/sde
(我的源磁盘)写入故障扇区,以便该过程可以继续。我知道我的一些文件将被损坏,因为我在存储它们的某些扇区中写入了零。现在我需要识别这些文件debugfs
并对其进行相应的处理。
我的卷布局如下:
相关的可能损坏的文件“在这里”--+ ...但是它的 inode 是什么?| 五 +----------------------------------------------+ | Ext4 文件系统 | +----------------------------------------------+ | LVM LV | +------------------------+----------------------+ | LVM 光伏 | LVM 光伏 | +------------------------+----------------------+ /dev/md127 | /dev/md1 | | | | |<- 1953524992 个扇区 ->|<-1953522848 个扇区->| +-----------+------------+-----------+----------+ | /dev/sdd | /dev/sdc | /dev/sdb | /dev/sde | +-----------+------------+-----------+----------+ ^ | /dev/sde 上有问题的扇区 1697876848 ---+
到目前为止,我在 /dev/sde 上“清空”了扇区1697876848
、、等1524606517
,1524609475
并且每次都重新启动恢复以使其完成。
考虑到不同的偏移量(RAID + LVM),我如何计算 inode 并识别受影响的文件?