作为一名系统管理员,我经常做的一件事就是增加 LV 的大小。在大多数情况下,我必须首先扩展 VG,添加新磁盘(我们谈论的是虚拟机)。我遇到过很多 LV 之前被延长过几次的案例:
# lvs -a -o+devices,seg_size,seg_pe_ranges /dev/mapper/data_vg-sapdata1_lv
LV VG Attr LSize Pool Origin Data% Move Log Copy% Convert Devices SSize PE Ranges
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(20224) 100.00g /dev/sdd:20224-45823
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(125184) 10.00g /dev/sdd:125184-127743
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(135424) 10.00g /dev/sdd:135424-137983
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(14592) 22.00g /dev/sdd:14592-20223
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdd(186624) 8.00g /dev/sdd:186624-188671
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(19713) 10.00g /dev/sde:19713-22272
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(29953) 8.00g /dev/sde:29953-32000
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(38145) 20.00g /dev/sde:38145-43264
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(58625) 20.99g /dev/sde:58625-63998
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdg(0) 29.01g /dev/sdg:0-7425
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(20479) 20.00g /dev/sdf:20479-25598
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(35839) 40.00g /dev/sdf:35839-46078
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdh(0) 39.00g /dev/sdh:0-9983
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdg(30719) 40.00g /dev/sdg:30719-40958
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdg(102399) 40.00g /dev/sdg:102399-112638
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(46079) 50.00g /dev/sdf:46079-58878
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(97279) 20.00g /dev/sdf:97279-102398
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(73727) 30.00g /dev/sde:73727-81406
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sde(89087) 25.00g /dev/sde:89087-95486
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdk(0) 40.00g /dev/sdk:0-10239
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdk(30720) 50.00g /dev/sdk:30720-43519
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdk(80645) 20.00g /dev/sdk:80645-85764
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdf(102399) 10.00g /dev/sdf:102399-104958
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdl(0) 30.00g /dev/sdl:0-7679
sapdata1_lv data_vg -wi-ao-- 750.00g /dev/sdl(26886) 58.00g /dev/sdl:26886-41733
# pvs | grep data_vg
/dev/sdd data_vg lvm2 a-- 750.00g 0
/dev/sde data_vg lvm2 a-- 450.00g 0
/dev/sdf data_vg lvm2 a-- 450.00g 0
/dev/sdg data_vg lvm2 a-- 450.00g 10.00g
/dev/sdh data_vg lvm2 a-- 400.00g 0
/dev/sdk data_vg lvm2 a-- 400.00g 0
/dev/sdl data_vg lvm2 a-- 450.00g 112.97g
我非常确定这会降低 IO 性能,因此我想迁移所有物理卷,以减少卷组内的磁盘数量以及跨 PV/区域的数据分散。
问题:
哪个是提高 IO 性能、将所有这些迁移到单个 PV (800Gb x 1) 或迁移到多个 PV (200Gb x 4) 的最佳选择?...我想在线性 LV 模式下进行,而不是条带模式。