MDADM RAID1 家庭服务器系统磁盘错误:逐步启动 raid 阵列 mdadm:未找到创建用户 root

MDADM RAID1 家庭服务器系统磁盘错误:逐步启动 raid 阵列 mdadm:未找到创建用户 root

我不确定还要检查什么。下面的一切对我来说都正常,但系统在启动时挂起。这是一台家用服务器,在一台戴尔 OP620 中塞入了四个磁盘。每对磁盘都组装成 RAID1:/data。故障阵列是/,因此无法启动。

完整错误在控制台上无限重复,内容是:

incrementally starting raid arrays
mdadm: Create user root not found 
mdadm: create group disk not found 
incrementally started raid arrays

类似的截图如下这里。该系统在上次重启前运行良好。阵列从 Puppy Linux 救援 USB 顺利组装:

mdadm --assemble --scan

fdiisk显示可用的磁盘:

# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes

然后blkid显示 UUID:

# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"

我可以md126使用以下命令安装该设备:

mount /dev/md126 /mnt/tmp

我的(以前工作的) fstab 文件是:

proc            /proc           proc    nodev,noexec,nosuid 0       0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 /               ext4    errors=remount-ro 0       1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none            swap    sw              0       0

/dev/mapper/3TB_RAID--1--LVM-lvol0      /data   ext4    nosuid,auto     0 0

答案1

我刚刚也遇到了这个问题。我注意到你的 md 编号是 md126,这通常是启动时生成的随机数,而不是来自mdadm.conf

在 中/boot/grub/grub.cfg,各种事物都指代/dev/md??UUID=.....

两者都是必需的。如果机器每次都使用随机的 md??? 号启动,initrd 将很难找到 raid 并陷入无限循环。

我必须更改这些数字,因为我重新创建了我的 md 设备。

update-grubmd?从当前正在运行的程序中获取数字/proc/mdstats并将其放入/boot/grub/grub.cfg

update-initramfsmd?从文件中获取数字/etc/mdadm/mdadm.conf并将其放入/boot/initrd___ 两者必须匹配。

当您通过救援磁盘启动时,/dev/md...就是救援磁盘生成的随机数。这md.../etc/mdadm/mdadm.conf

我所做的就是 mdadm --stop /dev/md...在所有磁盘上运行。然后运行...

mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat   # To check that the numbers are correct.
update-grub

如果你需要改变/etc/mdadm/mdadm.conf,也可以运行update-initramfs

看起来您的 fstab 说的是;这是可能在和/ was on /dev/md1 during installation中的数字。/boot/grub/grub.cfg/etc/mdadm/mdadm.conf

答案2

我在 Xen 虚拟机上收到此错误,该虚拟机实际上没有任何 RAID 配置(但 Dom0/主机有)。

实际错误不是 RAID,但您需要将日志向上滚动一点,在我的计算机上,实际错误是没有磁盘(或网络适配器/vif),因此 Xenbus 向虚拟机提供设备时存在一些问题:

 [  272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
 [  272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
 [  272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)

我通过重启主机解决了这个问题。之后,创建的 xen 虚拟机再次正常启动,并看到所有设备。

相关内容