更换 RAID 1 中的故障磁盘

更换 RAID 1 中的故障磁盘

两天前,我的软件 RAID 1(使用 gnome-disks 设置)配置中的两个驱动器之一发生故障。在此期间我无法访问文件。经过短暂的研究,似乎我必须更换故障磁盘并重建 RAID 才能再次访问我的文件。所以今天没问题,我拿到了替换磁盘,从 RAID 中移除了旧的损坏驱动器,并尝试将新驱动器添加到磁盘中。

(之前我用以下方法从工作驱动器复制分区布局sfdisk -d /dev/sdb | sfdisk /dev/sda:)

当我尝试使用 向我的 RAID(显示在我的 gnome-disks 中)添加新磁盘时mdadm —manage /dev/md0 —add /dev/sda,遇到此错误:

mdadm: Cannot get array info for /dev/md0

mdadm基本上对我的 /dev/md0进行的任何操作都会发生同样的事情。

我怎样才能让我的 RAID 恢复工作?

一些信息:

Ubuntu 15.04(64 位)

mdadm --version

mdadm - v3.3 - 2013 年 9 月 3 日

uname -a

Linux Z97X 3.19.0-27-通用 #29-Ubuntu SMP 2015 年 8 月 14 日星期五 21:43:37 UTC x86_64 x86_64 x86_64 GNU/Linux

cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : inactive sdb[0](S)
      976627383 blocks super 1.2

unused devices: <none>

mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
     Raid Level : raid0
  Total Devices : 1
    Persistence : Superblock is persistent

          State : inactive

           Name : PC:0
           UUID : XXXXXXXX:7af47836:XXXXXXX:d7360235
         Events : 3569

    Number   Major   Minor   RaidDevice

       -       8       16        -        /dev/sdb

为什么是突袭级别:raid0当我在 gnome-disks 中将其设置为 raid1 / 它在 gnome disks 中显示为 raid1 吗?

还有一个问题:当我设置 RAID 1 时,我的理解是,如果一个磁盘发生故障,我仍然可以访问我的数据,因为数据是镜像的。但是当磁盘发生故障时,情况显然并非如此。为什么?我对 RAID 1 的理解是错误的吗?

相关内容