扩展根分区

扩展根分区

我们需要扩展与第二个 SWAP(nvme0n1p2)分区相邻的根(nvme0n1p1)分区,该分区与第三个(nvme0n1p3)LVM2 分区相邻,该分区在 LVM2 内部有 2 个 ext4 格式的卷组。其中一个卷组安装在 /home/abc,这是服务器托管 Web(django 框架)应用程序的地方(在虚拟环境 | miniconda 内)。

我可以增加 Amazon 上的卷大小并扩展文件系统,但只能在 (nvme0n1) 硬盘的第 3 个 LVM2 分区(尾端)上进行。

第一个(nvme0n1p1)分区几乎没有空间了。

增加 Amazon EBS 上的卷大小后,说明会告诉您如何扩大分区(我想要扩大的是 ext4)(https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/recognize-expanded-volume-linux.html)告诉你:

sudo growpart /dev/nvme0n1 1

但答复是:

NOCHANGE: partition 1 could only be grown by 33 [fudge=2048]

之后你应该:

sudo resize2fs /dev/nvme0n1p1

但如果不扩大它,您就无法调整第一个 (nvme0n1p1) ext4 分区的大小。我无法扩大 (或调整 2fs) 第一个分区,因为它夹在第二个和第三个分区之间。我该如何实现这一点?- 我必须移动第二个 SWAP 和第三个 LVM2 分区,以便让扇区空闲,这样第一个分区才能调整大小,对吗?

因此,由于我无法扩大 p1,我将相同的命令应用于 p3,并且成功了。

sudo growpart /dev/nvme0n1 3

我可以使用逻辑卷管理器来执行以下操作:

lvextend -L +5G /dev/mapper/vg_abc-app

调整设备第 3 个分区(nvme0n1p3)内的卷组大小。

输出如下lsblk -fm

NAME                 FSTYPE      LABEL           UUID                                   MOUNTPOINT                  NAME                   SIZE OWNER GROUP MODE
loop0                squashfs                                                           /snap/core/00000            loop0                114.9M root  disk  brw-rw----
loop2                squashfs                                                           /snap/amazon-ssm-agent/0000 loop2                 26.7M root  disk  brw-rw----
loop3                squashfs                                                           /snap/core/00000            loop3                  114M root  disk  brw-rw----
loop4                squashfs                                                           /snap/core18/0000           loop4                 55.6M root  disk  brw-rw----
loop5                squashfs                                                           /snap/amazon-ssm-agent/0000 loop5                 25.1M root  disk  brw-rw----
loop6                squashfs                                                           /snap/core18/0000           loop6                 55.6M root  disk  brw-rw----
nvme0n1                                                                                                             nvme0n1                 50G root  disk  brw-rw----
├─nvme0n1p1          ext4        cloudimg-rootfs 00000000-0000-0000-0000-000000000000   /                           ├─nvme0n1p1             20G root  disk  brw-rw----
├─nvme0n1p2          swap                        00000000-0000-0000-0000-000000000000   [SWAP]                      ├─nvme0n1p2              2G root  disk  brw-rw----
└─nvme0n1p3          LVM2_member                 00000000-0000-0000-0000-000000000000                             └─nvme0n1p3             28G root  disk  brw-rw----
  ├─vg_abc-logs      xfs                         00000000-0000-0000-0000-000000000000   /var/log                      ├─vg_abc-logs          8G root  disk  brw-rw----
  └─vg_abc-app       xfs                         00000000-0000-0000-0000-000000000000   /home/abc                     └─vg_abc-app          19G root  disk  brw-rw----
nvme1n1              LVM2_member                 00000000-0000-0000-0000-000000000000                             nvme1n1                 50G root  disk  brw-rw----
└─vg_backups-backups xfs                         00000000-0000-0000-0000-000000000000   /home/abc/Backups-Disk      └─vg_backups-backups    49G root  disk  brw-rw----

输出如下:df -hT

Filesystem                     Type      Size  Used Avail Use% Mounted on
udev                           devtmpfs   16G     0   16G   0% /dev
tmpfs                          tmpfs     3.1G  306M  2.8G  10% /run
/dev/nvme0n1p1                 ext4       20G   15G  4.5G  77% /
tmpfs                          tmpfs      16G   40K   16G   1% /dev/shm
tmpfs                          tmpfs     5.0M     0  5.0M   0% /run/lock
tmpfs                          tmpfs      16G     0   16G   0% /sys/fs/cgroup
/dev/mapper/vg_abc-logs        xfs       8.0G  1.6G  6.5G  20% /var/log
/dev/loop2                     squashfs   27M   27M     0 100% /snap/amazon-ssm-agent/0000
/dev/loop5                     squashfs   26M   26M     0 100% /snap/amazon-ssm-agent/0001
/dev/mapper/vg_abc-app         xfs        19G  2.0G   18G  11% /home/abc
/dev/mapper/vg_backups-backups xfs        49G  312M   49G   1% /home/abc/Backups-Disk
/dev/loop3                     squashfs  114M  114M     0 100% /snap/core/00000
/dev/loop4                     squashfs   56M   56M     0 100% /snap/core18/0000
/dev/loop0                     squashfs  115M  115M     0 100% /snap/core/00001
/dev/loop6                     squashfs   56M   56M     0 100% /snap/core18/0001
tmpfs                          tmpfs     3.1G     0  3.1G   0% /run/user/1000

输出如下:

parted -a optimal /dev/nvme0n1 print free
Model: NVMe Device (nvme)
Disk /dev/nvme0n1: 53.7GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system     Flags
        32.3kB  1049kB  1016kB           Free Space
 1      1049kB  21.5GB  21.5GB  primary  ext4            boot
        21.5GB  21.5GB  16.9kB           Free Space
 2      21.5GB  23.6GB  2147MB  primary  linux-swap(v1)
 3      23.6GB  53.7GB  30.1GB  primary                  lvm

如何增加 nvme0n1p1 的根大小?

AWS 文档将指导您https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/5/html/deployment_guide/s1-lvm-diskdruid-auto如果您在基于 Nitro 的实例上有 LVM。但是,该链接对于我在这里尝试做的事情没有太大帮助。

此外,还有第二个设备 nvme1n1,它完全是 LVM2/xfs,安装在 /home/abc/Backups-Disks(文件系统:/dev/mapper/vg_backups-backups)。

不确定是否有区别,正如您在上面看到的:

nvme1n1              LVM2_member                 00000000-0000-0000-0000-000000000000                             nvme1n1                 50G root  disk  brw-rw----
└─vg_backups-backups xfs                         00000000-0000-0000-0000-000000000000   /home/abc/Backups-Disk      └─vg_backups-backups    49G root  disk  brw-rw----

我认为该其他设备不需要进行任何方式的更改,但如果需要,请告知。

任何帮助都值得感激,谢谢。

相关内容