我最近搬家了,在打开使用 mdadm RAID5 设置的文件服务器后出现了一些电源问题。我使用的文件系统是 ext4。
似乎在某个时候,在使用 --examine 快速查看后,两个(五个)磁盘几乎同时从阵列中掉出来。我认为不太可能对任何磁盘进行任何写入以使其失去奇偶校验,因为它不用作根目录或主目录的挂载点,并且当时未被使用(尽管它可能已被挂载)。
所以我想这是停止阵列并尝试的好时机
mdadm --assemble --scan --force -v
它将接受第二个磁盘作为阵列的一部分被踢出,但不会接受第一个磁盘。除了上次同步日期“太远”之外,它似乎没有什么大问题。更糟糕的是,即使它可以用 5 个磁盘中的 4 个启动阵列,但阵列似乎无法正确组装。
另一件值得注意的事情是,在我再次启动阵列中的磁盘后,它们的驱动器号似乎发生了变化。可能是 SATA 控制器出了问题?
我将订购一些替换磁盘来添加当前内容,以防我尝试的任何其他操作进一步破坏事情。
幸运的是,我对大部分内容都有备份,但是它们有点旧了,如果可能的话,我想避免使用它们。
如果没有办法解决这个问题,有人能推荐一个可以处理这种情况的文件恢复工具吗?我知道这应该是不可能的,但问问也无妨,对吧?
答案1
(这可能已经太晚了,但万一其他人偶然发现这一点......)
最近,在 RAID10 阵列上也发生了类似的事情。一个驱动器被意外移除了几个星期(别问......)。当我重新插入它时,两个驱动器mdadm --add
都mdadm --re-add
失败了。我不得不mdadm --zero-superblock
在驱动器上做这件事,然后mdadm --add
工作正常。
如果您有 5 个工作磁盘中的 4 个,并且正在使用持久超级块,则阵列应以降级模式启动;我不确定您所说的“似乎组装不正确”到底是什么意思。如果关闭不彻底,那么--force
可能需要这样做,您已经在使用它了。
关于 RAID 恢复的大量信息请访问https://raid.wiki.kernel.org/index.php/RAID_Recovery。