重新启动后 EBS 卷安装在错误的目录上

重新启动后 EBS 卷安装在错误的目录上

我在使用 AWS/EC2 托管的 Amazon AMI 上的 /etc/fstab 中有三个 EBS RAID 10 卷...

每次我重新启动实例时,卷都会安装到错误的安装点。关于如何将这些 RAID 卷安装到正确的安装点,有什么想法吗?

正确的例子

Filesystem            Size  Used Avail Use% Mounted on
/dev/xvda1            7.9G  1.3G  6.6G  16% /
tmpfs                 3.4G     0  3.4G   0% /dev/shm
/dev/md127            2.0G  129M  1.9G   7% /mnt/db
/dev/md126             35G   18G   18G  50% /mnt/web
/dev/md125            3.0G  267M  2.8G   9% /mnt/bc

重启后

Filesystem            Size  Used Avail Use% Mounted on
/dev/xvda1            7.9G  1.3G  6.6G  16% /
tmpfs                 3.4G     0  3.4G   0% /dev/shm
/dev/md127            2.0G  129M  1.9G   7% /mnt/bc
/dev/md126             35G   18G   18G  50% /mnt/db
/dev/md125            3.0G  267M  2.8G   9% /mnt/web

我的/etc/fstab

LABEL=/     /           ext4    defaults,noatime  1   1
tmpfs       /dev/shm    tmpfs   defaults        0   0
devpts      /dev/pts    devpts  gid=5,mode=620  0   0
sysfs       /sys        sysfs   defaults        0   0
proc        /proc   proc    defaults        0   0
/dev/md127  /mnt/db     xfs     defaults        0   0
/dev/md126  /mnt/web    xfs     defaults        0   0
/dev/md125  /mnt/bc    xfs     defaults        0   0

答案1

黑子

您可能希望尝试对每个设备使用 UUID,而不是设备句柄。您可以使用命令获取设备的 UUID blkid

$ blkid
/dev/lvm-raid2/lvm0: UUID="2123d4567-1234-1238-adf2-687a3c237f56" TYPE="ext3" 

然后将其添加到您的/etc/fstab

UUID=2123d4567-1234-1238-adf2-687a3c237f56    /mnt/db     ext3     defaults        0   0

RAID 名称?

@Patrick 在评论中提到创建 RAID 卷名称。我不愿意提出这个建议,因为老实说我不理解你的设置。但为了以防万一,我将提供创建 MD 设备的详细信息。像这样的东西:

$ sudo mdadm --assemble /dev/mdraid10 --name=myraid10 --update=name \
         /dev/md125 /dev/md126 /dev/md127

我已经使用 RAID 10 多年了,但我从未设置过设备的名称。我通常使用 UUID 或 RAID 的实际设备句柄。

例子

$ cat /proc/mdstat 
Personalities : [raid1] 
md0 : active raid1 sdc1[0] sdb1[1]
      2930266432 blocks [2/2] [UU]

unused devices: <none>

从上面的输出来看,设备句柄是/dev/md0。现在您可以检查它的详细信息:

$ mdadm --detail /dev/md0 
/dev/md0:
        Version : 0.90
  Creation Time : Wed Dec 16 22:55:51 2009
     Raid Level : raid1
     Array Size : 2930266432 (2794.52 GiB 3000.59 GB)
  Used Dev Size : -1
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Jul 20 07:39:34 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : 2f2b26fd:ce4d985f:6a98fc18:3e8f2e46
         Events : 0.23914

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       17        1      active sync   /dev/sdb1

然后,我通常使用以下命令添加上述 UUID /etc/mdadm.conf

$ sudo mdadm --detail --scan
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 UUID=2f2b26fd:ce4d985f:6a98fc18:3e8f2e46 

$ sudo mdadm --detail --scan > /etc/mdadm.conf

在我/etc/fstab安装这个 RAID 时,我会使用/dev/md0

/dev/md0        export/raid1 ext3    defaults            1 2

我也总是将 LVM 放在 RAID 之上。但这完全是另一个话题了。

参考

相关内容