几周前,我注意到 Ubuntu 20.04 上的 MDADM RAID-1 阵列中有两个驱动器中的一个被移除了。然后我买了第三个磁盘(以防真的出了问题)。它也是 WD RED 1TB,和旧款一样。
我添加了它,并重新添加了旧磁盘,一切正常 - 现在使用三个磁盘。但是,最近我注意到另一种行为 - 两个旧磁盘都被删除了:
/dev/md0:
Version : 1.2
Creation Time : Wed Jan 24 09:55:37 2018
Raid Level : raid1
Array Size : 976631488 (931.39 GiB 1000.07 GB)
Used Dev Size : 976631488 (931.39 GiB 1000.07 GB)
Raid Devices : 3
Total Devices : 1
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Jun 24 12:44:43 2021
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
3 8 48 2 active sync
阵列已安装为/storage
,其中包含大量内容。这是我按上述方法移除两个磁盘时看到的内容:
liwa@BRITNEYSPEARS:~$ cd /storage
liwa@BRITNEYSPEARS:/storage$ ls -la
total 8
drwxr-xr-x 2 root root 4096 Jan 24 2018 .
drwxr-xr-x 25 root root 4096 Jun 9 23:43 ..
(是的,我知道,我有一个超酷的主机名!)
因此,使用降级阵列我无法访问任何数据。当我拥有两个磁盘时,降级期间仍然可以访问数据(我认为?)。
但回到现在:
shutdown -r now
接下来mdadm --detail /dev/md0
给我:
/dev/md0:
Version : 1.2
Creation Time : Wed Jan 24 09:55:37 2018
Raid Level : raid1
Array Size : 976631488 (931.39 GiB 1000.07 GB)
Used Dev Size : 976631488 (931.39 GiB 1000.07 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Jun 24 14:14:20 2021
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : Atlas:0
UUID : f2da90a1:ab543094:7b6d30ff:aa03dafd
Events : 28498
Number Major Minor RaidDevice State
2 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
3 8 48 2 active sync /dev/sdd
所以,数组又回来了,也回来了ls -la /storage
。
我能从中学到什么?sdb 和 sdc 是否已过期?为什么不使用仅包含 sdd 的降级数组列出文件?
所有磁盘(包括操作系统磁盘 sda)都获得已通过, 使用smartctl -a
。