我们需要扩展与第二个 SWAP(nvme0n1p2)分区相邻的根(nvme0n1p1)分区,该分区与第三个(nvme0n1p3)LVM2 分区相邻,该分区在 LVM2 内部有 2 个 ext4 格式的卷组。其中一个卷组安装在 /home/abc,这是服务器托管 Web(django 框架)应用程序的地方(在虚拟环境 | miniconda 内)。
我可以增加 Amazon 上的卷大小并扩展文件系统,但只能在 (nvme0n1) 硬盘的第 3 个 LVM2 分区(尾端)上进行。
第一个(nvme0n1p1)分区几乎没有空间了。
增加 Amazon EBS 上的卷大小后,说明会告诉您如何扩大分区(我想要扩大的是 ext4)(https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/recognize-expanded-volume-linux.html)告诉你:
sudo growpart /dev/nvme0n1 1
但答复是:
NOCHANGE: partition 1 could only be grown by 33 [fudge=2048]
之后你应该:
sudo resize2fs /dev/nvme0n1p1
但如果不扩大它,您就无法调整第一个 (nvme0n1p1) ext4 分区的大小。我无法扩大 (或调整 2fs) 第一个分区,因为它夹在第二个和第三个分区之间。我该如何实现这一点?- 我必须移动第二个 SWAP 和第三个 LVM2 分区,以便让扇区空闲,这样第一个分区才能调整大小,对吗?
因此,由于我无法扩大 p1,我将相同的命令应用于 p3,并且成功了。
sudo growpart /dev/nvme0n1 3
我可以使用逻辑卷管理器来执行以下操作:
lvextend -L +5G /dev/mapper/vg_abc-app
调整设备第 3 个分区(nvme0n1p3)内的卷组大小。
输出如下lsblk -fm
:
NAME FSTYPE LABEL UUID MOUNTPOINT NAME SIZE OWNER GROUP MODE
loop0 squashfs /snap/core/00000 loop0 114.9M root disk brw-rw----
loop2 squashfs /snap/amazon-ssm-agent/0000 loop2 26.7M root disk brw-rw----
loop3 squashfs /snap/core/00000 loop3 114M root disk brw-rw----
loop4 squashfs /snap/core18/0000 loop4 55.6M root disk brw-rw----
loop5 squashfs /snap/amazon-ssm-agent/0000 loop5 25.1M root disk brw-rw----
loop6 squashfs /snap/core18/0000 loop6 55.6M root disk brw-rw----
nvme0n1 nvme0n1 50G root disk brw-rw----
├─nvme0n1p1 ext4 cloudimg-rootfs 00000000-0000-0000-0000-000000000000 / ├─nvme0n1p1 20G root disk brw-rw----
├─nvme0n1p2 swap 00000000-0000-0000-0000-000000000000 [SWAP] ├─nvme0n1p2 2G root disk brw-rw----
└─nvme0n1p3 LVM2_member 00000000-0000-0000-0000-000000000000 └─nvme0n1p3 28G root disk brw-rw----
├─vg_abc-logs xfs 00000000-0000-0000-0000-000000000000 /var/log ├─vg_abc-logs 8G root disk brw-rw----
└─vg_abc-app xfs 00000000-0000-0000-0000-000000000000 /home/abc └─vg_abc-app 19G root disk brw-rw----
nvme1n1 LVM2_member 00000000-0000-0000-0000-000000000000 nvme1n1 50G root disk brw-rw----
└─vg_backups-backups xfs 00000000-0000-0000-0000-000000000000 /home/abc/Backups-Disk └─vg_backups-backups 49G root disk brw-rw----
输出如下:df -hT
Filesystem Type Size Used Avail Use% Mounted on
udev devtmpfs 16G 0 16G 0% /dev
tmpfs tmpfs 3.1G 306M 2.8G 10% /run
/dev/nvme0n1p1 ext4 20G 15G 4.5G 77% /
tmpfs tmpfs 16G 40K 16G 1% /dev/shm
tmpfs tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/mapper/vg_abc-logs xfs 8.0G 1.6G 6.5G 20% /var/log
/dev/loop2 squashfs 27M 27M 0 100% /snap/amazon-ssm-agent/0000
/dev/loop5 squashfs 26M 26M 0 100% /snap/amazon-ssm-agent/0001
/dev/mapper/vg_abc-app xfs 19G 2.0G 18G 11% /home/abc
/dev/mapper/vg_backups-backups xfs 49G 312M 49G 1% /home/abc/Backups-Disk
/dev/loop3 squashfs 114M 114M 0 100% /snap/core/00000
/dev/loop4 squashfs 56M 56M 0 100% /snap/core18/0000
/dev/loop0 squashfs 115M 115M 0 100% /snap/core/00001
/dev/loop6 squashfs 56M 56M 0 100% /snap/core18/0001
tmpfs tmpfs 3.1G 0 3.1G 0% /run/user/1000
输出如下:
parted -a optimal /dev/nvme0n1 print free
Model: NVMe Device (nvme)
Disk /dev/nvme0n1: 53.7GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:
Number Start End Size Type File system Flags
32.3kB 1049kB 1016kB Free Space
1 1049kB 21.5GB 21.5GB primary ext4 boot
21.5GB 21.5GB 16.9kB Free Space
2 21.5GB 23.6GB 2147MB primary linux-swap(v1)
3 23.6GB 53.7GB 30.1GB primary lvm
如何增加 nvme0n1p1 的根大小?
AWS 文档将指导您https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/5/html/deployment_guide/s1-lvm-diskdruid-auto如果您在基于 Nitro 的实例上有 LVM。但是,该链接对于我在这里尝试做的事情没有太大帮助。
此外,还有第二个设备 nvme1n1,它完全是 LVM2/xfs,安装在 /home/abc/Backups-Disks(文件系统:/dev/mapper/vg_backups-backups)。
不确定是否有区别,正如您在上面看到的:
nvme1n1 LVM2_member 00000000-0000-0000-0000-000000000000 nvme1n1 50G root disk brw-rw----
└─vg_backups-backups xfs 00000000-0000-0000-0000-000000000000 /home/abc/Backups-Disk └─vg_backups-backups 49G root disk brw-rw----
我认为该其他设备不需要进行任何方式的更改,但如果需要,请告知。
任何帮助都值得感激,谢谢。