我有一个卷组,它由两个大小分别为 10TB 的物理卷(SSD 和 NLSAS)组成(是的,一个非常慢,另一个非常快),所以总共 20TB。
- 我使用以下命令创建了 Volume backupvg10TB 固态硬盘并使用 (ext4) 格式化 lv (PV0)
- 在格式化 Nlsas (ext4)(它包含一些以前的数据)时,我遇到了太多与相关基础设施有关的问题,不想再这样做了。试想一下,在格式化期间,一家公司的所有基础设施都瘫痪了 24 小时。
- 格式化后我添加了物理卷NL-SAS 10TB到 VOL GROUP 备份(PV1)
- 现在,当我尝试调整此 LV 的大小时,我达到了 ext4 32 位的限制,即最大 16TB。因此,只有调整2fs大小/dev/backupvg/backuplv0116777216M工作
- 在对解决方案进行一些研究并在不同的网络基础设施上复制了相同的解决方案后,发现它会再次产生如问题 2 所示的问题(缓慢的 NL-SAS 和基础设施影响)因此考虑不要转换为 64 位。
现在我唯一的选择是添加额外的 6.xxTB SSD(这是我所得到的最大值),然后将 PE 从 NLSAS 传输到它,并从 LV 和 VOLUME GROUP 中删除 NLSAS,并将现有的转换为 XFS(过一段时间,因为我不想格式化数字 2)。
现在我想知道如何知道 NLSAS 使用了多少实际数据以及 LV/VG 中的 SSD 使用了多少实际数据,我认为这是由于 32 位导致的问题。
- 16TB 几乎已满 98%
pvdisplay-m
--- Physical volume ---
PV Name /dev/mapper/SSD1
VG Name backupvg
PV Size <10.00 TiB / not usable 2.00 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 2621439
Free PE 0
Allocated PE 2621439
--- Physical Segments ---
Physical extent 0 to 2621438:
Logical volume /dev/backupvg/backuplv01
Logical extents 0 to 2621438
--- Physical volume ---
PV Name /dev/mapper/NLSAS1
VG Name backupvg
PV Size <10.00 TiB / not usable 2.00 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 2621439
Free PE 0
Allocated PE 2621439
--- Physical Segments ---
Physical extent 0 to 2621438:
Logical volume /dev/backupvg/backuplv01
Logical extents 2621439 to 5242877
vg显示备份vg
--- Volume group ---
VG Name backupvg
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size <20.00 TiB
PE Size 4.00 MiB
Total PE 5242878
Alloc PE / Size 5242878 / <20.00 TiB
Free PE / Size 0 / 0
lvdisplay /dev/backupvg/backuplv01
--- Logical volume ---
LV Path /dev/backupvg/backuplv01
LV Name backuplv01
VG Name backupvg
LV Write Access read/write
LV Status available
# open 1
LV Size <20.00 TiB
Current LE 5242878
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:57
请提出如何突破 16TB 的限制,但不将 NLSAS 格式化/转换为 64 位。以及如何检查哪个 PV 使用了 6TB,哪个使用了完整的 10TB。如果 PV NLSAS 使用了 6TB 并且没有使用 4TB,那么我可以连接 6TB 的 SSD LUN,那么如何继续从 PV NLSAS 6TB 数据移动到 SSD 6TB 数据
按要求更新
光伏显示器
--- Physical volume ---
PV Name /dev/mapper/LUN_10TB_SSD1
VG Name backupvg
PV Size <10.00 TiB / not usable 2.00 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 2621439
Free PE 0
Allocated PE 2621439
PV UUID OjUFfu-*removed*
--- Physical volume ---
PV Name /dev/mapper/LUN_10TB_NLSAS1
VG Name backupvg
PV Size <10.00 TiB / not usable 2.00 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 2621439
Free PE 0
Allocated PE 2621439
PV UUID 57YeFo-*removed*
显示
--- Volume group ---
VG Name backupvg
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size <20.00 TiB
PE Size 4.00 MiB
Total PE 5242878
Alloc PE / Size 5242878 / <20.00 TiB
Free PE / Size 0 / 0
VG UUID 0m9T8d-bSa7-*removed*
lv显示器
--- Logical volume ---
LV Path /dev/backupvg/backuplv01
LV Name backuplv01
VG Name backupvg
LV UUID DT0rXQ-*removed*
LV Write Access read/write
LV Creation host, time hostnameremoved, 2020-02-01 22:02:51 +0400
LV Status available
# open 1
LV Size <20.00 TiB
Current LE 5242878
Segments 2
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 253:57