客户已将 8TB 配置为物理卷 (/dev/sdc),并创建了具有 8TB 的逻辑卷组 (vg_sys)。根据安装指南(Azure 云部署指南),他们创建了逻辑卷,如 lvs 输出所示,如下所示。剩余空间(约 7 TB)在安装期间分配给 docker-pool。
[root@vm-bp-uaa-prod-1-new /]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
homelv rootvg -wi-ao---- 11.00g
optlv rootvg -wi-ao---- 4.00g
rootlv rootvg -wi-ao---- 17.00g
tmplv rootvg -wi-ao---- 12.00g
usrlv rootvg -wi-ao---- 10.00g
varlv rootvg -wi-ao---- 8.00g
docker-pool vg_sys twi-aot--- <6.94t 1.13 0.62
optabc vg_sys -wi-ao---- 900.00g
var vg_sys -wi-ao---- 100.00g
最近,我们遇到了一些有关目录(opt/abc)大小的问题,当目录满了时,软件就会出现很多问题。
看来,docker-pool 在执行安装的先决条件时,在进行分区后使用了所有可用的空闲卷组空间?为什么会发生这种情况?是否有任何参数或配置可以限制分配给精简 docker 池 LV 的可用 VG 空闲空间的使用?
我们想确认是否可以从 docker-pool 逻辑卷中减少一些空间并将其分配给其他 LV(optabc)。我们尝试使用“lvresize”和“lvreduce”,但这些命令失败并显示此消息。(精简池卷 vg_sys/docker-pool_tdata 的大小尚无法减小。)
我已将从客户生产环境中获取的以下命令的输出附加到文件 - diskpartition.rtf 中
df -kh
pvs
vgs
lvs
lsblk
pvdisplay
vgdisplay
lvdisplay
docker 信息
我已将从客户生产环境中获取的以下命令的输出附加到文件 - diskpartition.rtf 中
df -kh
pvs
vgs
lvs
lsblk
pvdisplay
vgdisplay
lvdisplay
docker info