我们使用 ceph 来管理存储,最近增加了 /dev/sdb 的磁盘大小。我不确定如何利用 ceph 的 lvm 中新可用的空间。
sdb 8:16 0 550G 0 disk
└─ceph--9elp0015--40ic--40pf--bf26--436d3bmkilhf-osd--data--aamki6ca--ec5a--4251--8ep0-
c83plkmj176c 253:0 0 250G 0 lvm
我如何扩展或调整 lvm 的大小以使用可用的 300 GB?
pvdisplay
--- Physical volume ---
PV Name /dev/sdb
VG Name ceph-9e7d6015-464c-4f1f-bf26-436d3b9b8a1f
PV Size 250.00 GiB / not usable 4.00 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 63999
Free PE 0
Allocated PE 63999
PV UUID Arhj1O-KuxC-f1YG-une0-D3CI-sP4H-Gf7hf0
答案1
您可以使用以下方式检查和更改尺寸ceph-bluestore-tool
:
bluefs-bdev-sizes --path osd path
Print the device sizes, as understood by BlueFS, to stdout.
bluefs-bdev-expand --path osd path
Instruct BlueFS to check the size of its block devices and, if they have expanded, make use of the additional space.
请注意,这仅适用于已停止的 OSD。因此,如果您关闭一个 OSD,请确保您的集群保持健康。如果您不确定要设置多快,请设置标志noout
:ceph osd set noout
这样 OSD 离线超过 10 分钟时就不会耗尽。它是独立的 OSD 还是在单独的更快设备上有 rocksDB 和/或 WAL?
我强烈建议使用测试集群来测试此过程,因为这样您就不会因犯错而破坏数据。