引导失败 - 通过 RAID 1 扩展 LVM(“root”、“/”)(CentOS 7)

引导失败 - 通过 RAID 1 扩展 LVM(“root”、“/”)(CentOS 7)

问题:

当我们使用另一个 RAID 1 在 RAID 1 上扩展卷组 (VG) 后,CentOS 7 无法启动。我们使用的过程在过程:通过 RAID 1 扩展 LVM(“root”、“/”)。我们演示的过程中存在哪些错误和/或缺失?


语境:

我们正在尝试使用另外两个 RAID 1(软件)磁盘将卷组 (VG) 扩展到两个 RAID 1(软件)磁盘。


问题:

扩展 VG(卷组)后,CentOS 7 无法启动。


过程:通过 RAID 1 扩展 LVM(“root”、“/”)

  • 格式化硬盘

运行以下 2 个命令在添加的两个硬盘上创建新的 MBR 分区表...

parted /dev/sdc mklabel msdos
parted /dev/sdd mklabel msdos

重新加载“fstab”...

mount -a

使用 fdisk 命令在每个驱动器上创建一个新分区并将其格式化为 Linux raid 自动检测文件系统。首先在 /dev/sdc 上执行此操作。

fdisk /dev/sdc

请遵循这些说明...

  • 输入“n”创建一个新分区;
  • 输入“p”选择主分区;
  • 输入“1”创建/dev/sdb1;
  • 按Enter键选择默认的第一个扇区;
  • 按 Enter 键选择默认的最后一个扇区。该分区将跨越整个驱动器;
  • 输入“t”并输入“fd”将分区类型设置为Linux raid自动检测;
  • 键入“w”以应用上述更改。

笔记:按照相同的说明在“/dev/sdd”上创建 Linux raid 自动检测分区。

现在我们有两个 raid 设备“/dev/sdc1”和“/dev/sdd1”。

  • 创建 RAID 1 逻辑驱动器

执行以下命令创建 RAID 1...

[root@localhost ~]# mdadm --create /dev/md125 --homehost=localhost --name=pv01 --level=mirror --bitmap=internal --consistency-policy=bitmap --raid-devices=2 /dev/sdc1 /dev/sdd1
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md125 started.

增加逻辑卷

[root@localhost ~]# pvcreate /dev/md125
  Physical volume "/dev/md125" successfully created.

我们通过添加之前使用“pvcreate”命令创建的“/dev/md125”(“RAID 1”)物理卷来扩展“centosvg”卷组...

[root@localhost ~]# vgextend centosvg /dev/md125
  Volume group "centosvg" successfully extended

使用“lvextend”命令增加逻辑卷 - 将采用我们的原始逻辑卷并将其扩展到我们的新磁盘/分区/物理(“RAID 1”)卷“/dev/md125”...

[root@localhost ~]# lvextend /dev/centosvg/root /dev/md125
  Size of logical volume centosvg/root changed from 4.95 GiB (1268 extents) to <12.95 GiB (3314 extents).
  Logical volume centosvg/root successfully resized.

使用“xfs_growfs”命令调整文件系统的大小以利用此空间......

[root@localhost ~]# xfs_growfs /dev/centosvg/root
meta-data=/dev/mapper/centosvg-root isize=512    agcount=4, agsize=324608 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0 spinodes=0
data     =                       bsize=4096   blocks=1298432, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 1298432 to 3393536
  • 保存我们的 RAID1 配置

此命令更新您的启动内核配置以匹配系统的当前状态...

mdadm --detail --scan > /tmp/mdadm.conf
\cp -v /tmp/mdadm.conf /etc/mdadm.conf

更新 GRUB 配置,以便它了解新设备...

grub2-mkconfig -o "$(readlink -e /etc/grub2.cfg)"

运行上述命令后,您应该运行以下命令来生成新的“initramfs”映像...

dracut -fv

错误:

开机失败!


基础设施/其他信息:

LSBLK

[root@localhost ~]# lsblk
NAME                MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda                   8:0    0    8G  0 disk  
├─sda1                8:1    0    1G  0 part  
│ └─md127             9:127  0 1023M  0 raid1 /boot
└─sda2                8:2    0    7G  0 part  
  └─md126             9:126  0    7G  0 raid1 
    ├─centosvg-root 253:0    0    5G  0 lvm   /
    └─centosvg-swap 253:1    0    2G  0 lvm   [SWAP]
sdb                   8:16   0    8G  0 disk  
├─sdb1                8:17   0    1G  0 part  
│ └─md127             9:127  0 1023M  0 raid1 /boot
└─sdb2                8:18   0    7G  0 part  
  └─md126             9:126  0    7G  0 raid1 
    ├─centosvg-root 253:0    0    5G  0 lvm   /
    └─centosvg-swap 253:1    0    2G  0 lvm   [SWAP]
sdc                   8:32   0    8G  0 disk  
sdd                   8:48   0    8G  0 disk  
sr0                  11:0    1 1024M  0 rom

mdadm --检查 /dev/sdc /dev/sdd

[root@localhost ~]# mdadm --examine /dev/sdc /dev/sdd
/dev/sdc:
   MBR Magic : aa55
Partition[0] :     16775168 sectors at         2048 (type fd)
/dev/sdd:
   MBR Magic : aa55
Partition[0] :     16775168 sectors at         2048 (type fd)

mdadm --检查 /dev/sdc1 /dev/sdd1

[root@localhost ~]# mdadm --examine /dev/sdc1 /dev/sdd1
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 51a622a9:666c7936:1bf1db43:8029ab06
           Name : localhost:pv01
  Creation Time : Tue Jan  7 13:42:20 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 16764928 sectors (7.99 GiB 8.58 GB)
     Array Size : 8382464 KiB (7.99 GiB 8.58 GB)
    Data Offset : 10240 sectors
   Super Offset : 8 sectors
   Unused Space : before=10160 sectors, after=0 sectors
          State : clean
    Device UUID : f95b50e3:eed41b52:947ddbb4:b42a40d6

Internal Bitmap : 8 sectors from superblock
    Update Time : Tue Jan  7 13:43:15 2020
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 9d4c040c - correct
         Events : 25


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 51a622a9:666c7936:1bf1db43:8029ab06
           Name : localhost:pv01
  Creation Time : Tue Jan  7 13:42:20 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 16764928 sectors (7.99 GiB 8.58 GB)
     Array Size : 8382464 KiB (7.99 GiB 8.58 GB)
    Data Offset : 10240 sectors
   Super Offset : 8 sectors
   Unused Space : before=10160 sectors, after=0 sectors
          State : clean
    Device UUID : bcb18234:aab93a6c:80384b09:c547fdb9

Internal Bitmap : 8 sectors from superblock
    Update Time : Tue Jan  7 13:43:15 2020
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : 40ca1688 - correct
         Events : 25


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

猫 /proc/mdstat

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid1] 
md125 : active raid1 sdd1[1] sdc1[0]
      8382464 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md126 : active raid1 sda2[0] sdb2[1]
      7332864 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

md127 : active raid1 sda1[0] sdb1[1]
      1047552 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

mdadm --详细 /dev/md125

[root@localhost ~]# mdadm --detail /dev/md125
/dev/md125:
           Version : 1.2
     Creation Time : Tue Jan  7 13:42:20 2020
        Raid Level : raid1
        Array Size : 8382464 (7.99 GiB 8.58 GB)
     Used Dev Size : 8382464 (7.99 GiB 8.58 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Tue Jan  7 13:43:15 2020
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : localhost:pv01
              UUID : 51a622a9:666c7936:1bf1db43:8029ab06
            Events : 25

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       49        1      active sync   /dev/sdd1

fdisk -l

[root@localhost ~]# fdisk -l

Disk /dev/sda: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x000f2ab2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     2101247     1049600   fd  Linux raid autodetect
/dev/sda2         2101248    16777215     7337984   fd  Linux raid autodetect

Disk /dev/sdb: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0002519d

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *        2048     2101247     1049600   fd  Linux raid autodetect
/dev/sdb2         2101248    16777215     7337984   fd  Linux raid autodetect

Disk /dev/sdc: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0007bd31

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    16777215     8387584   fd  Linux raid autodetect

Disk /dev/sdd: 8589 MB, 8589934592 bytes, 16777216 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x00086fef

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1            2048    16777215     8387584   fd  Linux raid autodetect

Disk /dev/md127: 1072 MB, 1072693248 bytes, 2095104 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md126: 7508 MB, 7508852736 bytes, 14665728 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/centosvg-root: 5318 MB, 5318377472 bytes, 10387456 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/mapper/centosvg-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes


Disk /dev/md125: 8583 MB, 8583643136 bytes, 16764928 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

df-h

[root@localhost ~]# df -h
Filesystem                 Size  Used Avail Use% Mounted on
devtmpfs                   484M     0  484M   0% /dev
tmpfs                      496M     0  496M   0% /dev/shm
tmpfs                      496M  6.8M  489M   2% /run
tmpfs                      496M     0  496M   0% /sys/fs/cgroup
/dev/mapper/centosvg-root  5.0G  1.4G  3.7G  27% /
/dev/md127                1020M  164M  857M  17% /boot
tmpfs                      100M     0  100M   0% /run/user/0

图形显示

[root@localhost ~]# vgdisplay
  --- Volume group ---
  VG Name               centosvg
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               6.99 GiB
  PE Size               4.00 MiB
  Total PE              1790
  Alloc PE / Size       1780 / 6.95 GiB
  Free  PE / Size       10 / 40.00 MiB
  VG UUID               6mKxWb-KOIe-fW1h-zukQ-f7aJ-vxD5-hKAaZG

光伏扫描

[root@localhost ~]# pvscan
  PV /dev/md126   VG centosvg        lvm2 [6.99 GiB / 40.00 MiB free]
  PV /dev/md125   VG centosvg        lvm2 [7.99 GiB / 7.99 GiB free]
  Total: 2 [14.98 GiB] / in use: 2 [14.98 GiB] / in no VG: 0 [0   ]

lv显示

[root@localhost ~]# lvdisplay
  --- Logical volume ---
  LV Path                /dev/centosvg/swap
  LV Name                swap
  VG Name                centosvg
  LV UUID                o5G6gj-1duf-xIRL-JHoO-ux2f-6oQ8-LIhdtA
  LV Write Access        read/write
  LV Creation host, time localhost, 2020-01-06 13:22:08 -0500
  LV Status              available
  # open                 2
  LV Size                2.00 GiB
  Current LE             512
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:1

  --- Logical volume ---
  LV Path                /dev/centosvg/root
  LV Name                root
  VG Name                centosvg
  LV UUID                GTbGaF-Wh4J-1zL3-H7r8-p5YZ-kn9F-ayrX8U
  LV Write Access        read/write
  LV Creation host, time localhost, 2020-01-06 13:22:09 -0500
  LV Status              available
  # open                 1
  LV Size                4.95 GiB
  Current LE             1268
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:0

猫 /run/initramfs/rdsosreport.txt

猫 /run/initramfs/rdsosreport.txt

谢谢你!=D

[参考文献: https://4fasters.com.br/2017/11/12/lpic-2-o-que-ee-para-que-serve-o-dracut/, https://unix.stackexchange.com/a/152249/61742, https://www.howtoforge.com/set-up-raid1-on-a-running-lvm-system-debian-etch-p2, https://www.howtoforge.com/setting-up-lvm-on-top-of-software-raid1-rhel-fedora, https://www.linuxbabe.com/linux-server/linux-software-raid-1-setup, https://www.rootusers.com/how-to-increase-the-size-of-a-linux-lvm-by-adding-a-new-disk/ ]

答案1

出现该问题的原因如下...

dracut 文档暗示任何 md raid 阵列都应该自动组装,并且仅当您只想在引导过程中组装某些阵列时才应使用“rd.md.uuid”参数。

看起来实际上,数组不会自动组装,实际上只有在设置“rd.md.uuid”参数时才组装(对于每个需要组装的数组)。可能是因为“rd.lvm.lv”参数已经设置,所以它以某种方式干扰了“md”,但我没有时间测试它。

简而言之,将两个数组的 rd.md.uuid 参数添加到“/etc/default/grub”中的“GRUB_CMDLINE_LINUX”变量,然后重新生成 grub 配置解决了我的问题。

也就是说,为了启动工作,需要在“GRUB_CMDLINE_LINUX”参数中输入新阵列(新的“RAID 1”),因为它将成为“root”(“/”)的一部分。

有关更多详细信息,请参阅部分保存我们的“RAID 1”配置并调整 CentOS 启动在下面的完整过程中。

[参考文献: https://4fasters.com.br/2017/11/12/lpic-2-o-que-ee-para-que-serve-o-dracut/, https://forums.centos.org/viewtopic.php?f=47&t=49541#p256406, https://forums.centos.org/viewtopic.php?f=47&t=51937&start=10#p220414, https://forums.centos.org/viewtopic.php?t=72667, https://unix.stackexchange.com/a/152249/61742, https://unix.stackexchange.com/a/267773/61742, https://www.howtoforge.com/set-up-raid1-on-a-running-lvm-system-debian-etch-p2, https://www.howtoforge.com/setting-up-lvm-on-top-of-software-raid1-rhel-fedora, https://www.linuxbabe.com/linux-server/linux-software-raid-1-setup, https://www.rootusers.com/how-to-increase-the-size-of-a-linux-lvm-by-adding-a-new-disk/ ]


通过 RAID 1 扩展 LVM(“root”、“/”)

  • 格式化硬盘

物理添加两个新磁盘后,运行以下命令列出所有磁盘/设备(包括 RAID 子系统)...

lsblk

笔记:在我们的例子中,设备将被称为“sdc”和“sdd”,默认情况下将分别位于路径“/dev/sdc”和“/dev/sdd”中。

运行以下 2 个命令在添加的两个硬盘上创建新的 MBR 分区表...

parted /dev/sdc mklabel msdos
parted /dev/sdd mklabel msdos

重要的:两个磁盘上的任何数据都将被破坏。

重新加载“fstab”...

mount -a

使用“fdisk”命令在每个驱动器上创建一个新分区并将其格式化为“Linux raid 自动检测”文件系统。首先在“/dev/sdc”上执行此操作...

fdisk /dev/sdc

请遵循这些说明...

  • 输入“n”创建一个新分区;
  • 输入“p”选择主分区;
  • 输入“1”创建/dev/sdb1;
  • 按Enter键选择默认的第一个扇区;
  • 按 Enter 键选择默认的最后一个扇区。该分区将跨越整个驱动器;
  • 我们需要更改分区类型,因此输入“t”;
  • 输入“fd”将分区类型设置为“Linux raid autodetect”;
  • 键入“w”以应用上述更改。

笔记:按照相同的说明在“/dev/sdd”上创建 Linux raid 自动检测分区。

  • 创建 RAID 1 逻辑驱动器

执行以下命令创建“RAID 1”...

重要的:

  • 对于“数组”的名称,我们将分配“/dev/md/pv01”,因为在我们的例子中为这些设备识别的最高顺序是“pv00”(注意命令“mdadm --detail --scan”的输出) )。数组名称“/dev/md/pv01”也将是“/dev/md12X”设备的符号路径。该路径由“mdadm”(下面的命令)自动生成。路径“/dev/md12X”代表一个新设备,该新设备又代表设备“/dev/sdc1”和“/dev/sdd1”(“RAID 1”)。您稍后可以使用ls /dev/md*命令或readlink -f /dev/md/pv01命令确认设备名称实际是什么(“/dev/md125”、“/dev/md126”、“/dev/md127”等...);
  • “数组”名称“/dev/md/pv01”遵循 CentOS 当前使用的命名“模式”。我们建议使用它。
[root@localhost ~]# mdadm --create /dev/md/pv01 --name=pv01 --level=mirror --bitmap=internal --consistency-policy=bitmap --raid-devices=2 /dev/sdc1 /dev/sdd1
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md/pv01 started.

创建 PV(物理卷)来扩展我们的 LVM...

[root@localhost ~]# pvcreate /dev/md/pv01
  Physical volume "/dev/md/pv01" successfully created.

我们通过添加我们使用上面的“pvcreate”命令创建的“/dev/md/pv01”(“RAID 1”)的 PV(物理卷)来扩展“centosvg”卷组...

提示:要找出目标 VG(卷组)的名称,请使用命令“vgdisplay”观察属性“VG Name”的值,在我们的示例中为“centosvg”。

[root@localhost ~]# vgextend centosvg /dev/md/pv01
  Volume group "centosvg" successfully extended

使用“lvextend”命令增加新 PV(物理卷)“/dev/md/pv01”上的 LV(逻辑卷)...

提示:要找出目标逻辑卷 (LV) 路径,请使用“lvdisplay”命令查看“LV Path”属性的值,在我们的示例中为“/dev/centosvg/root”。

[root@localhost ~]# lvextend /dev/centosvg/root /dev/md/pv01
  Size of logical volume centosvg/root changed from 4.95 GiB (1268 extents) to <12.95 GiB (3314 extents).
  Logical volume centosvg/root successfully resized.

使用“xfs_growfs”命令调整“/dev/centosvg/root”LV(逻辑卷)内的文件系统大小,以便利用新空间...

提示:使用与上面使用的 LV(逻辑卷)相同的路径,在我们的例子中是“/dev/centosvg/root”。

[root@localhost ~]# xfs_growfs /dev/centosvg/root
meta-data=/dev/mapper/centosvg-root isize=512    agcount=4, agsize=324608 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0 spinodes=0
data     =                       bsize=4096   blocks=1298432, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 1298432 to 3393536
  • 保存我们的“RAID 1”配置并调整 CentOS 启动

更新启动内核配置以匹配系统的当前状态。

运行命令...

[root@localhost ~]# mdadm --detail --scan
ARRAY /dev/md/boot metadata=1.2 name=localhost:boot UUID=50ed66ef:6fb373da:5690ac4b:4fb82a45
ARRAY /dev/md/pv00 metadata=1.2 name=localhost:pv00 UUID=283a4a43:43c85816:55c6adf0:ddcbfb2b
ARRAY /dev/md/pv01 metadata=1.2 name=localhost.localdomain:pv01 UUID=e5feec81:20d5e154:9a1e2dce:75a03c71

...并查看包含数组/设备“/dev/md/pv01”的行(我们的案例)。

打开文件“/etc/mdadm.conf”...

vi /etc/mdadm.conf

...并在最后添加一行,如下所示...

模型

ARRAY [NEW_ARRAY_NAME] level=raid1 num-devices=2 UUID=[NEW_ARRAY_UUID]

例子

ARRAY /dev/md/pv01 level=raid1 num-devices=2 UUID=e5feec81:20d5e154:9a1e2dce:75a03c71

打开文件“/etc/default/grub”...

vi /etc/default/grub

...并查找参数“GRUB_CMDLINE_LINUX”。

在参数“GRUB_CMDLINE_LINUX”的值中查找另一个代表“root”分区的参数“rd.lvm.lv”,如下所示...

模型

rd.lvm.lv=[VG_NAME]/[LV_NAME]

例子

rd.lvm.lv=centosvg/root

...向此“rd.lvm.lv”添加一个“rd.md.uuid” - 在本例中与上面使用的“[NEW_ARRAY_UUID]”相同 - 如下......

模型

GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=[LV_NAME] rd.md.uuid=283a4a43:43c85816:55c6adf0:ddcbfb2b rd.md.uuid=50ed66ef:6fb373da:5690ac4b:4fb82a45 rd.md.uuid=[NEW_ARRAY_UUID] rd.lvm.lv=centosvg/swap rhgb quiet"

例子

GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=centosvg/root rd.md.uuid=283a4a43:43c85816:55c6adf0:ddcbfb2b rd.md.uuid=50ed66ef:6fb373da:5690ac4b:4fb82a45 rd.md.uuid=e5feec81:20d5e154:9a1e2dce:75a03c71 rd.lvm.lv=centosvg/swap rhgb quiet"

更新 GRUB 配置,以便它了解新设备...

grub2-mkconfig -o /boot/grub2/grub.cfg

运行上述命令后,您应该运行以下命令来生成新的“initramfs”映像...

dracut -fv

最后重启...

reboot

重要的:尽管重新启动并不是该过程正常运行所必需的,但我们建议您重新启动以检查可能的故障。

相关内容