我不确定还要检查什么。下面的一切对我来说都正常,但系统在启动时挂起。这是一台家用服务器,在一台戴尔 OP620 中塞入了四个磁盘。每对磁盘都组装成 RAID1:/
和data
。故障阵列是/
,因此无法启动。
完整错误在控制台上无限重复,内容是:
incrementally starting raid arrays
mdadm: Create user root not found
mdadm: create group disk not found
incrementally started raid arrays
类似的截图如下这里。该系统在上次重启前运行良好。阵列从 Puppy Linux 救援 USB 顺利组装:
mdadm --assemble --scan
fdiisk
显示可用的磁盘:
# fdisk -l|grep GB
Disk /dev/sda: 320.1 GB, 320072933376 bytes
Disk /dev/sdb: 320.1 GB, 320072933376 bytes
Disk /dev/sdc: 3000.6 GB, 3000592982016 bytes
Disk /dev/sdd: 3000.6 GB, 3000592982016 bytes
Disk /dev/md127: 3000.5 GB, 3000457494528 bytes
Disk /dev/md126: 317.9 GB, 317938532352 bytes
然后blkid
显示 UUID:
# blkid
/dev/md126: UUID="fc836940-3c99-4f64-8751-decc9629abc5" TYPE="ext4"
/dev/md0: UUID="2b00d6da-aa0e-4295-a1bb-822f4224815b" TYPE="swap"
/dev/loop0: TYPE="squashfs"
/dev/sda1: UUID="908ccc1f-cb70-4d3e-9d81-43b8e0f519ff" TYPE="ext4"
/dev/sdb1: UUID="3a052c52-593f-47d5-8606-cb818619c50b" TYPE="ext4"
/dev/sde1: LABEL="8GB_BLACK_P" UUID="1CE1-AF11" TYPE="vfat"
我可以md126
使用以下命令安装该设备:
mount /dev/md126 /mnt/tmp
我的(以前工作的) fstab 文件是:
proc /proc proc nodev,noexec,nosuid 0 0
# / was on /dev/md1 during installation
UUID=fc836940-3c99-4f64-8751-decc9629abc5 / ext4 errors=remount-ro 0 1
# swap was on /dev/md0 during installation
UUID=2b00d6da-aa0e-4295-a1bb-822f4224815b none swap sw 0 0
/dev/mapper/3TB_RAID--1--LVM-lvol0 /data ext4 nosuid,auto 0 0
答案1
我刚刚也遇到了这个问题。我注意到你的 md 编号是 md126,这通常是启动时生成的随机数,而不是来自mdadm.conf
在 中/boot/grub/grub.cfg
,各种事物都指代/dev/md??
和UUID=.....
两者都是必需的。如果机器每次都使用随机的 md??? 号启动,initrd 将很难找到 raid 并陷入无限循环。
我必须更改这些数字,因为我重新创建了我的 md 设备。
update-grub
md?
从当前正在运行的程序中获取数字/proc/mdstats
并将其放入/boot/grub/grub.cfg
update-initramfs
md?
从文件中获取数字/etc/mdadm/mdadm.conf
并将其放入/boot/initrd___
两者必须匹配。
当您通过救援磁盘启动时,/dev/md...
就是救援磁盘生成的随机数。这md...
与/etc/mdadm/mdadm.conf
我所做的就是 mdadm --stop /dev/md...
在所有磁盘上运行。然后运行...
mdadm --assemble --config=/etc/mdadm/mdadm.conf --run
cat /proc/mdstat # To check that the numbers are correct.
update-grub
如果你需要改变/etc/mdadm/mdadm.conf
,也可以运行update-initramfs
看起来您的 fstab 说的是;这是可能在和/ was on /dev/md1 during installation
中的数字。/boot/grub/grub.cfg
/etc/mdadm/mdadm.conf
答案2
我在 Xen 虚拟机上收到此错误,该虚拟机实际上没有任何 RAID 配置(但 Dom0/主机有)。
实际错误不是 RAID,但您需要将日志向上滚动一点,在我的计算机上,实际错误是没有磁盘(或网络适配器/vif),因此 Xenbus 向虚拟机提供设备时存在一些问题:
[ 272.220880] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51714 (local state 1, remote state 1)
[ 272.221595] xenbus_probe_frontend: Timeout connecting to device: device/vbd/51713 (local state 1, remote state 1)
[ 272.222102] xenbus_probe_frontend: Timeout connecting to device: device/vif/0 (local state 1, remote state 1)
我通过重启主机解决了这个问题。之后,创建的 xen 虚拟机再次正常启动,并看到所有设备。