MDADM RAID-1 删除了两个驱动器,显示第三个驱动器上没有文件

MDADM RAID-1 删除了两个驱动器,显示第三个驱动器上没有文件

几周前,我注意到 Ubuntu 20.04 上的 MDADM RAID-1 阵列中有两个驱动器中的一个被移除了。然后我买了第三个磁盘(以防真的出了问题)。它也是 WD RED 1TB,和旧款一样。

我添加了它,并重新添加了旧磁盘,一切正常 - 现在使用三个磁盘。但是,最近我注意到另一种行为 - 两个旧磁盘都被删除了:

/dev/md0:
           Version : 1.2
     Creation Time : Wed Jan 24 09:55:37 2018
        Raid Level : raid1
        Array Size : 976631488 (931.39 GiB 1000.07 GB)
     Used Dev Size : 976631488 (931.39 GiB 1000.07 GB)
      Raid Devices : 3
     Total Devices : 1
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Thu Jun 24 12:44:43 2021
             State : clean, degraded
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       -       0        0        1      removed
       3       8       48        2      active sync

阵列已安装为/storage,其中包含大量内容。这是我按上述方法移除两个磁盘时看到的内容:

liwa@BRITNEYSPEARS:~$ cd /storage
liwa@BRITNEYSPEARS:/storage$ ls -la
total 8
drwxr-xr-x  2 root root 4096 Jan 24  2018 .
drwxr-xr-x 25 root root 4096 Jun  9 23:43 ..

(是的,我知道,我有一个超酷的主机名!)

因此,使用降级阵列我无法访问任何数据。当我拥有两个磁盘时,降级期间仍然可以访问数据(我认为?)。

但回到现在: shutdown -r now接下来mdadm --detail /dev/md0给我:

/dev/md0:
           Version : 1.2
     Creation Time : Wed Jan 24 09:55:37 2018
        Raid Level : raid1
        Array Size : 976631488 (931.39 GiB 1000.07 GB)
     Used Dev Size : 976631488 (931.39 GiB 1000.07 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Thu Jun 24 14:14:20 2021
             State : clean
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : Atlas:0
              UUID : f2da90a1:ab543094:7b6d30ff:aa03dafd
            Events : 28498

    Number   Major   Minor   RaidDevice State
       2       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       3       8       48        2      active sync   /dev/sdd

所以,数组又回来了,也回来了ls -la /storage

我能从中学到什么?sdb 和 sdc 是否已过期?为什么不使用仅包含 sdd 的降级数组列出文件?

所有磁盘(包括操作系统磁盘 sda)都获得已通过, 使用smartctl -a

相关内容