从 RAID5 中恢复,其中 2 个驱动器发生故障,其中只有一个驱动器确实坏了

从 RAID5 中恢复,其中 2 个驱动器发生故障,其中只有一个驱动器确实坏了

我有(曾经有?)一个带有 3 个设备的 RAID5。其中一个坏了,几天后我发现 RAID 完全停止了。但是,我可以重新启动它而没有任何问题,但它在几个小时后再次停止,我重新启动它,几分钟后它再次停止,依此类推。一个月以来,RAID 无法再启动。(在过去的一个月内,我没有对 RAID 做任何事情,因为我没有时间。)

我不知道这是(驱动器的)硬件故障还是“只是”电源线接触不良,因为一年前我就遇到过这个问题。我现在希望“只是”接触不良。RAID 主要保存我已备份的数据,但是备份不保存一个月左右的更改。

我找到了这个关于从两个故障磁盘的 RAID5 中恢复的博客文章。它描述了我(希望)遇到的类似问题:驱动器(或至少两个故障驱动器中的一个)实际上没有缺陷,只是从计算机上断开了连接。他们的方法是使用除第一个故障设备之外的所有设备重新创建 RAID5。

在我的例子中,我有三个磁盘,其中一个坏了。所以我只剩下两个:/dev/sda1 和 /dev/sdc1,而后者是已“分离”的磁盘(至少,我希望它没有坏)。所以我希望从检查这个设备中获得最重要的信息:

sudo mdadm --examine /dev/sdc1

          Magic : a92b4efc
        Version : 0.90.00
           UUID : 83cb326b:8da61825:203b04db:473acb55 (local to host sebastian)
  Creation Time : Wed Jul 28 03:52:54 2010
     Raid Level : raid5
  Used Dev Size : 732571904 (698.64 GiB 750.15 GB)
     Array Size : 1465143808 (1397.27 GiB 1500.31 GB)
   Raid Devices : 3
  Total Devices : 2
Preferred Minor : 127

    Update Time : Tue Oct 23 19:19:10 2012
          State : clean
Internal Bitmap : present
 Active Devices : 2
Working Devices : 2
 Failed Devices : 1
  Spare Devices : 0
       Checksum : eaa3f133 - correct
         Events : 523908

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       33        1      active sync   /dev/sdc1

   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       0        0        2      faulty removed

因此从 10 月 23 日开始 RAID 就完全停止工作了。

现在我想使用以下命令使用这两个设备进行恢复

sudo mdadm --verbose --create /dev/md127 --chunk=64 --level=5 --raid-devices=3 /dev/sda1 /dev/sdc1 missing

我希望有人能告诉我这是否是正确的命令。我很紧张……它告诉我确认用于重新创建阵列的驱动器的以下数据:

mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: /dev/sda1 appears to contain an ext2fs file system
    size=1465143808K  mtime=Tue Oct 23 14:39:49 2012
mdadm: /dev/sda1 appears to be part of a raid array:
    level=raid5 devices=3 ctime=Wed Jul 28 03:52:54 2010
mdadm: layout defaults to left-symmetric
mdadm: /dev/sdc1 appears to be part of a raid array:
    level=raid5 devices=3 ctime=Wed Jul 28 03:52:54 2010
mdadm: size set to 732570816K
Continue creating array? 

附加信息:我曾经用 3 * 750GB 驱动器创建过阵列,因此文件系统为 1.5TB(ext2)。特别是,我想知道 /dev/sda1 包含 1.5TB ext2 文件系统的行是否正确,因为在上面链接的博客文章中,他们的输出没有显示这样的行...

我还想知道是否应该先将任何设备上的超级块归零......

我可以进行任何检查来确认这很可能不会完全杀死有机会恢复的东西吗?

相关内容