CentOS 尝试挂载不存在的 RAID 阵列 -> 恢复模式

CentOS 尝试挂载不存在的 RAID 阵列 -> 恢复模式

我第一次尝试使用 RAID1 时,CentOS 不再启动 - 让我进入恢复模式。幸好有测试系统

起初我设置了 raid1,效果相当不错。后来我注意到我的分区只有 3TB 中的 2.2TB(但使用 fdisk 的默认起始/结束扇区 - 它没有使用完整的硬盘,这是正常的吗?编辑:是的 / 现在使用 parted)

当我注意到我的想法是“是的,只需删除 RAID 并重新开始”,但似乎删除 RAID 比创建 RAID 重得多。这只是我用来删除它的命令:

mdadm --stop /dev/md0
mdadm --zero-superblock /dev/sdb (which didn't work)
mdadm --zero-superblock /dev/sdc (also wasn't working)
mdadm --remove /dev/md0
umount /dev/md0

然后删除我在 /etc/fstab 中的条目。那是我被投入救援的那一刻(当然是在重新启动后) - 所以我也删除了 sdb 和 sdc 的分区,但它没有改变。

“journalctl -xb”的错误是:

Received SIGRTMIN+20 from PID 1694 (plymouthd)
Timed out waiting for device dev-md0.device.

Dependency failed for /data
Dependency failed for Local File Systems
Dependency failed for Mark the need to relabel after reboot.

Job rhel-autorelabel-mark.services/start failed with result 'dependency'.
Dependency failed for Migrate local SELinux policy changes from the old store structure to the new structure.

Job [email protected]/start failed with result 'dependency'.
Dependency failed for Relabel all filesystems, if necessary.

无法理解为什么它仍然尝试将 /dev/md0 挂载到 /data,因为我删除了 fstab 条目并且 /dev/md0 设备不再可用。

谢谢!

答案1

实际上,在使用parted之后,我忘记了用 来创建新的文件系统mkfs.extX /dev/sdcX。就是这样。

使用 mdadm 和 parted 的其他步骤(如果我再次需要):
列出您的块设备
lsblk

以最佳模式启动parted(而不是fdisk,因为它只能处理2TB)以检查对齐错误 parted -a optimal /dev/sdX

创建GPT分区(再次大于2tb) mklabel gpt

分区 mkpart
1
ext2
2048s
-1 //不使用完整空间..
set 1 raid on

创建数组:
mdadm --create /dev/md/0 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1
yes

卸载/安装 RAID:
mount /dev/md0 /data/
umount /data/

或者将其添加到/etc/fstab
/dev/md0 /data ext4 defaults 0 0
然后:
mount -a

相关内容