添加新磁盘后无法调整 LVM2 RAID 5 阵列的大小

添加新磁盘后无法调整 LVM2 RAID 5 阵列的大小

我已经在 Google 上搜索到手指酸痛了。出于某种原因,在向 VG 添加额外的(相同)磁盘后,我似乎无法扩大 LV。

我认为我已经成功将第四个磁盘添加到阵列中。每个磁盘都是相同的 WD 10TB 驱动器(格式化为 9.1TB)。我的原始阵列是 3 个磁盘。因此,目前我有 18.2TB 的可用空间。磁盘是 /dev/sdc、/dev/sdd、/dev/sde,我正在添加 /dev/sdf。

当我执行时vgdisplay,结果如下:

--- Volume group ---
  VG Name               data
  System ID
  Format                lvm2
  Metadata Areas        4
  Metadata Sequence No  30
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               1
  Max PV                0
  Cur PV                4
  Act PV                4
  VG Size               36.38 TiB
  PE Size               4.00 MiB
  Total PE              9537532
  Alloc PE / Size       7153149 / <27.29 TiB
  Free  PE / Size       2384383 / <9.10 TiB
  VG UUID               4eex8c-TZo3-P7N0-pp8m-jQ9c-uTf2-lZe1XN

我读到的结果是 LV 的数量为 1(正确),PV 的数量为 4(也正确)。我读到的结果是,VG 的总大小为 36.4TB 或 4 x 9.1TB(也正确),可用的 PE 为 ~27.3 TB(也正确)。

但这正是一切崩溃的地方......

我做了一个

lvextend -l +100%FREE /dev/data/data

lvextend --extents +100%FREE /dev/data/data

两个命令均返回以下内容:

  Using stripesize of last segment 64.00 KiB
  Size of logical volume data/data unchanged from 18.19 TiB (4768764 extents).
  Logical volume data/data successfully resized.

当我做

resize2fs /dev/data/data

它返回

resize2fs 1.45.5 (07-Jan-2020)
The filesystem is already 4883214336 (4k) blocks long.  Nothing to do!

当我做

df -h

我明白了

/dev/mapper/data-data                 19T   15T  2.7T  85% /mnt/sdc

最后,

lsblk

给出:

sdc                             8:32   0   9.1T  0 disk
├─data-data_rmeta_2           253:6    0     4M  0 lvm
│ └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
└─data-data_rimage_2          253:7    0   9.1T  0 lvm
  └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
sdd                             8:48   0   9.1T  0 disk
├─data-data_rmeta_1           253:4    0     4M  0 lvm
│ └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
└─data-data_rimage_1          253:5    0   9.1T  0 lvm
  └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
sde                             8:64   0   9.1T  0 disk
├─data-data_rmeta_0           253:2    0     4M  0 lvm
│ └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
└─data-data_rimage_0          253:3    0   9.1T  0 lvm
  └─data-data                 253:8    0  18.2T  0 lvm   /mnt/sdc
sdf                             8:80   0   9.1T  0 disk

所以我被难住了。有人能帮我吗?我的空间很快就不够了。

提前谢谢大家!!

b

答案1

我遇到了类似的问题,通过改变分配策略来解决它(我的设置为contiguous而不是默认的normal

lvextend /dev/UPLOADS/data /dev/sdd1 --alloc normal

相关内容