我创建了由 2 个设备组成的 RAID 1 阵列(在 Ubuntu 18.04 LTS 上工作):
mdadm --create /dev/md6 -l 1 --raid-devices=2 /dev/sda9 /dev/sdb6
mkfs.ext4 /dev/md6
mkdir /raid
mdadm –detail –scan >> /etc/mdadm/mdadm.conf
update-initramfs -u
vim /etc/fstab # next line is what I've put into the fstab file
/dev/md6 /raid ext4 defaults 0 0
mount /raid
重新启动后,我无法连接到我的服务器(通过 ssh)。只有当我启动到救援模式并注释掉包含 md6 信息的 fstab 和 mdadm.conf 行时,我才能连接到我的服务器。
mdadm --detail /dev/md6
/dev/md6:
Version : 1.2
Creation Time : Sun Jan 26 14:52:22 2020
Raid Level : raid1
Array Size : 1046528 (1022.00 MiB 1071.64 MB)
Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Jan 26 17:06:17 2020
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : resync
Name : popaja:6 (local to host popaja)
UUID : 67d43386:09285115:0c33fcec:68fb2054
Events : 17
Number Major Minor RaidDevice State
0 8 9 0 active sync /dev/sda9
1 8 22 1 active sync /dev/sdb6
这是 mdadm.conf 的样子:
# This configuration was auto-generated on Sat, 24 Nov 2018 16:01:31 +0000 by mkconf
ARRAY /dev/md1 UUID=e402909e:fd60a086:a4d2adc2:26fd5302
ARRAY /dev/md2 UUID=a0e2960f:72c3523c:a4d2adc2:26fd5302
ARRAY /dev/md5 UUID=d97cc04c:2812a744:a4d2adc2:26fd5302
ARRAY /dev/md1 metadata=0.90 UUID=e402909e:fd60a086:a4d2adc2:26fd5302
ARRAY /dev/md2 metadata=0.90 UUID=a0e2960f:72c3523c:a4d2adc2:26fd5302
ARRAY /dev/md5 metadata=0.90 UUID=d97cc04c:2812a744:a4d2adc2:26fd5302
ARRAY /dev/md6 metadata=1.2 name=popaja:6 UUID=67d43386:09285115:0c33fcec:68fb2054
如您所见,我有更多 RAID 设备,但它们从未困扰过我。我错过了什么吗?
答案1
好的,所以我问了我的服务器提供商的客户服务,他们修复了它,但没有解释如何修复,除了这条消息:
Diagnosis:
The server was found on the login without ping
Action:
Restarting the server in "bzimage" (OVH kernel)
Result:
Boot: OK
Ping: OK
Server on login
Services started
这意味着什么 ?
新创建的 RAID 阵列 /dev/md6 自动安装并工作。