我创建了由 2 个设备组成的 RAID 1 阵列(在 Ubuntu 18.04 LTS 上运行):
mdadm --create /dev/md6 -l 1 --raid-devices=2 /dev/sda9 /dev/sdb6
mkfs.ext4 /dev/md6
mkdir /raid
mdadm –detail –scan >> /etc/mdadm/mdadm.conf
update-initramfs -u
vim /etc/fstab # next line is what I've put into the fstab file
/dev/md6 /raid ext4 defaults 0 0
mount /raid
重启后,我无法连接到我的服务器(通过 ssh)。只有当我启动到救援模式并注释掉包含有关 md6 的信息的 fstab 和 mdadm.conf 行时,我才能连接到我的服务器。
mdadm --detail /dev/md6
/dev/md6:
Version : 1.2
Creation Time : Sun Jan 26 14:52:22 2020
Raid Level : raid1
Array Size : 1046528 (1022.00 MiB 1071.64 MB)
Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Jan 26 17:06:17 2020
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : popaja:6 (local to host popaja)
UUID : 67d43386:09285115:0c33fcec:68fb2054
Events : 17
Number Major Minor RaidDevice State
0 8 9 0 active sync /dev/sda9
1 8 22 1 active sync /dev/sdb6
mdadm.conf 如下所示:
# This configuration was auto-generated on Sat, 24 Nov 2018 16:01:31 +0000 by mkconf
ARRAY /dev/md1 UUID=e402909e:fd60a086:a4d2adc2:26fd5302
ARRAY /dev/md2 UUID=a0e2960f:72c3523c:a4d2adc2:26fd5302
ARRAY /dev/md5 UUID=d97cc04c:2812a744:a4d2adc2:26fd5302
ARRAY /dev/md1 metadata=0.90 UUID=e402909e:fd60a086:a4d2adc2:26fd5302
ARRAY /dev/md2 metadata=0.90 UUID=a0e2960f:72c3523c:a4d2adc2:26fd5302
ARRAY /dev/md5 metadata=0.90 UUID=d97cc04c:2812a744:a4d2adc2:26fd5302
ARRAY /dev/md6 metadata=1.2 name=popaja:6 UUID=67d43386:09285115:0c33fcec:68fb2054
如您所见,我拥有更多 RAID 设备,但它们从未困扰过我。我是否遗漏了什么?
更新 :
我进入服务器提供商的页面(控制面板)并进行了全新安装,在 raid 1 阵列上选择了 /boot、/、/home。我还选择了另外两个额外的 raid 阵列作为 /raid 和 /raid1。奇怪的是,安装后一切都按预期运行,但当我尝试使用 mdadm 命令自行创建 raid 阵列时,问题就来了。
现在一切看起来是这样的:
vim /etc/fstab
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/md2 / ext4 errors=remount-ro 0 1
/dev/md1 /boot ext4 errors=remount-ro 0 1
/dev/md5 /home ext4 defaults 1 2
/dev/md6 /raid ext4 defaults 1 2
/dev/md7 /raid1 ext4 defaults 1 2
/dev/sda3 swap swap defaults 0 0
/dev/sdb3 swap swap defaults 0 0
proc /proc proc defaults 0 0
sysfs /sys sysfs defaults 0 0
~
vim /etc/mdadm/mdadm.conf
# This configuration was auto-generated on Sat, 24 Nov 2018 16:01:31 +0000 by mkconf
ARRAY /dev/md1 UUID=44642845:2ace7714:a4d2adc2:26fd5302
ARRAY /dev/md2 UUID=92b6b281:c860fcce:a4d2adc2:26fd5302
ARRAY /dev/md5 UUID=67bd76dc:3d620e68:a4d2adc2:26fd5302
ARRAY /dev/md6 UUID=5e9aacb7:13436f9e:a4d2adc2:26fd5302
ARRAY /dev/md7 UUID=36a9f6dc:2b8e82d8:a4d2adc2:26fd5302
~
~
我决定暂时不去搞 RAID,因为我不需要它们。但这是一个奇怪的情况。