我为 Ubuntu 12 和 14 找到了很多关于这个问题的答案,但 EFI 分区的情况发生了一些变化。实际上,使用这些指南,我确实有一个运行 RAID1 的旧系统,但我遇到了麻烦,速度很慢。
旧的 RAID 系统有我的备份和 nextcloud 数据,我已将其移动到新系统,重新创建了 raid 并进行复制。
这就是我现在正在运行的:
Device Start End Sectors Size Type
/dev/sda1 2048 1050623 1048576 512M EFI System
/dev/sda2 1050624 959449087 958398464 457G Linux RAID
/dev/sda3 959449088 7814035455 6854586368 3.2T Linux RAID
Device Start End Sectors Size Type
/dev/sdb1 2048 1050623 1048576 512M EFI System
/dev/sdb2 1050624 959449087 958398464 457G Linux RAID
/dev/sdb3 959449088 7814035455 6854586368 3.2T Linux RAID
Device Start End Sectors Size Type
/dev/sdc1 2048 1050623 1048576 512M EFI System
/dev/sdc2 1050624 976771071 975720448 465.3G Linux filesystem
系统当前从 /dev/sdc 启动
我尝试使用 Live CD 将 sdc1 和 sdc2 复制到 sda 和 sdb 并使它们可启动。
我发现这篇文章很有趣 在具有 UEFI BIOS 的机器上安装具有 RAID 1 和 LVM 的 Ubuntu 20.04 桌面
我认为它包含了许多我一直忽略的细节。
具体来说,步骤 4.1 chroot 到 raid 文件系统,我已经安装并配置了 mdadm,所以剩下的就是
Update the module list the kernel should load at boot.
echo raid1 >> /etc/modules
Update the boot ramdisk
update-initramfs -u
Finally, exit from chroot
然后继续执行步骤 5 及以后的操作。
我真的认为我忽略的关键点是将 raid1 添加到 /etc/modules 在旧文档(Ubuntu 12 等)中,我认为它是在 grub 文件中处理的