无法挂载 raid 1

无法挂载 raid 1

我有 Ubuntu 16.04.4 LTS 我有一组相同的硬盘。我创建了一个 raid 1 阵列,但似乎无法安装它。

cat /proc/mdstat
md126 : active raid1 sde[1] sdd[0]
      24412992 blocks super 1.2 [2/2] [UU]

mdadm --detail /dev/md126
/dev/md126:
        Version : 1.2
  Creation Time : Mon Apr 16 12:20:39 2018
     Raid Level : raid1
     Array Size : 24412992 (23.28 GiB 25.00 GB)
  Used Dev Size : 24412992 (23.28 GiB 25.00 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Wed May  9 23:08:47 2018
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : kat1:raidarray3  (local to host kat1)
           UUID : 5da485b7:9aed668a:053cec83:88179e15
         Events : 21

    Number   Major   Minor   RaidDevice State
       0       8       48        0      active sync   /dev/sdd
       1       8       64        1      active sync   /dev/sde

初始化时我发出了命令:

sudo mkfs.ext4 -F /dev/md126

然后

sudo mount /dev/md126 /mnt/raid_23G

没有显示错误,但 df -h 上未显示 raid 阵列

root@kat1:/mnt# sudo mount /dev/md126 /mnt/raid_23G
root@kat1:/mnt#
root@kat1:/mnt# sudo umount /dev/md126
umount: /dev/md126: not mounted
root@kat1:/mnt# fsck /dev/md126
fsck from util-linux 2.27.1
e2fsck 1.42.13 (17-May-2015)
/dev/md126: clean, 11/1525920 files, 139793/6103248 blocks

#ls /dev/md126* 
/dev/md126 

/mnt# ls -la 
total 28 
drwxr-xr-x 7 root root 4096 Apr 16 12:22 . 
drwxr-xr-x 23 root root 4096 Apr 15 17:52 .. 
drwxr-xr-x 2 root root 4096 Apr 16 12:15 backup_raid 
drwxr-xr-x 5 root root 4096 Apr 23 16:20 md0 
drwxr-xr-x 2 root root 4096 Apr 16 12:22 raid_23G 
drwxr-xr-x 2 root root 4096 Apr 16 12:22 raid_587G 
drwxr-xr-x 4 root root 4096 Apr 15 23:40 Store

因此该目录确实存在,并且没有 /dev/md126p1

非常感谢您的帮助,所询问的命令的输出如下:

root@kat1-kvm:/# sudo blkid
/dev/sda1: UUID="0f62bf49-d7b4-444b-9229-093b902c4f35" TYPE="ext2" PARTUUID="7dcd7eef-01"
/dev/sda5: UUID="kwwylr-xhGI-lGu0-vEDf-n1RV-BBep-MAdn10" TYPE="LVM2_member" PARTUUID="7dcd7eef-05"
/dev/md127: UUID="ea8d8ae6-2dea-494a-9283-926f29209b77" TYPE="ext4"
/dev/sdb: UUID="d07f60aa-3e50-937d-2cb6-0265baf86362" UUID_SUB="9812be8a-845b-01b6-ac13-93d983f6ce60" LABEL="kat1-kvm:raidarray2" TYPE="linux_raid_member"
/dev/sdc: UUID="d07f60aa-3e50-937d-2cb6-0265baf86362" UUID_SUB="16b50f6a-fed4-1985-c66a-fa487e42a968" LABEL="kat1-kvm:raidarray2" TYPE="linux_raid_member"
/dev/sdd: UUID="5da485b7-9aed-668a-053c-ec8388179e15" UUID_SUB="ab6f9b08-5ee6-b974-fbf1-f0401f4d0ab6" LABEL="kat1-kvm:raidarray3" TYPE="linux_raid_member"
/dev/sde: UUID="5da485b7-9aed-668a-053c-ec8388179e15" UUID_SUB="56e87833-2c7b-dbf8-5b53-582fc6e6bde6" LABEL="kat1-kvm:raidarray3" TYPE="linux_raid_member"
/dev/sdf: UUID="c28036d1-57b2-62d9-6188-5187f0b3a099" UUID_SUB="8168786f-9528-3ae8-dd3c-3e24df3b275c" LABEL="kat1-kvm:raidarray" TYPE="linux_raid_member"
/dev/sdg: UUID="c28036d1-57b2-62d9-6188-5187f0b3a099" UUID_SUB="02a8529c-e62c-25e1-8654-358371cf5ede" LABEL="kat1-kvm:raidarray" TYPE="linux_raid_member"
/dev/sdh1: LABEL="Store" UUID="d3521cce-65f7-4914-8476-15a3058368da" TYPE="ext4" PARTLABEL="Store" PARTUUID="833db700-d7ea-4307-b57b-7c61c9772840"
/dev/md0: UUID="40110e88-2ed2-49f7-b5d0-8353a1feacd3" TYPE="ext4"
/dev/md126: UUID="904d39f9-6c1b-462d-a841-614c1ba8c9d8" TYPE="ext4"
/dev/mapper/kat1--kvm--vg-root: UUID="e5d8c7d5-04bd-4596-9e4f-73bc010151b9" TYPE="ext4"
/dev/mapper/kat1--kvm--vg-swap_1: UUID="b6069bbf-9f87-4c5c-9034-838c37af0290" TYPE="swap"

为了清楚起见,该服务器有多个磁盘,3 组相同的磁盘(用于三个 raid 1 组)和 2 个单独的磁盘。第一个 raid 组工作正常,可访问,从之前的帖子信息 (md0) 可以看出,其他两个 raid 组拒绝安装,尽管 mdstat 说 raid 正常。

我搞不清楚了。

我确实点击了你的链接,它提供了一个命令

sudo 更新-initramfs -u

这确实解决了问题,现在一切都安装正确了。我不知道刚才发生了什么,但我非常感谢您抽出时间。我欠你一个人情

答案1

我会尽力在这里回答这个问题。我有一个类似的设置,但我有一个 2x500GB RAID 1 用于启动和操作系统。然后我有一个 5x4TB RAID 5 配置。

创建数组后,我发现我不喜欢/dev/md*它们显示的名称,所以我更改了它们。我不知道这是否真的会带来很大影响,但可能会。

/etc/mdadm/mdadm.conf文件中,我找到了 RAID5 配置的行。它看起来像这样:

ARRAY /dev/md/1  metadata=1.2 UUID=3bb988cb:d5270497:36e75f46:67a9bc65 name=Intrepid:1

您的行中将有 UUID=5da485b7:9aed668a:053cec83:88179e15。

但我的命名约定不同。所以我将这一行改为:

ARRAY /dev/md1  metadata=1.2 UUID=3bb988cb:d5270497:36e75f46:67a9bc65

改变之后我跑了

sudo update-initramfs -u

您可能也想看看这个答案,因为您还会看到/dev/md127以下内容: 为什么我的 RAID /dev/md1 显示为 /dev/md126?mdadm.conf 被忽略了吗?

然后重新启动主机。重新启动后,cat /proc/mdstat现在如下所示:

md1 : active raid5 sdi1[5] sdh1[3] sdg1[2] sdf1[1] sde1[0]
      15627542528 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
      bitmap: 0/30 pages [0KB], 65536KB chunk

然后我运行了sudo blkid并得到了这个/dev/md1

我的实际上已经在其上创建了一个分区,因此它显示如下:

/dev/md1p1: UUID="a50fd553-b143-4ad8-bdb1-2247d9349e86" TYPE="ext4" PARTUUID="19a0b3cb-03f0-4a7c-b562-3537b3046365"

我想把它安装到我的/media/storage坐骑上,所以我把它放在我的/etc/fstab文件中,如下所示:

UUID=a50fd553-b143-4ad8-bdb1-2247d9349e86 /media/storage   ext4    defaults 0 0

如您所见,UUID 与 fstab 以及 blkid 相匹配。添加并保存后,我只需运行以下命令即可从此处挂载它而无需重新启动:

sudo mount -a

希望这可以帮助!

相关内容