我刚刚重做了我的 NAS,从 ZFS 切换到 LVM raid。这是一个有 3x8TB 的新 raid,每个物理卷都是一个 LUKS 卷。
lvs -a -o+devices
显示:
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert Devices
[lvol0_pmspare] vgraid ewi------- 2.00g /dev/mapper/cache_data(359138)
lvraid vgraid rwi-aor--- 14.55t 90.92 lvraid_rimage_0(0),lvraid_rimage_1(0),lvraid_rimage_2(0)
lvraid_cache_data vgraid Cwi---C--- 1.37t lvraid_cache_data_cdata(0)
[lvraid_cache_data_cdata] vgraid Cwi------- 1.37t /dev/mapper/cache_data(0)
[lvraid_cache_data_cmeta] vgraid ewi------- 2.00g /dev/mapper/cache_meta(0)
[lvraid_rimage_0] vgraid Iwi-aor--- <7.28t /dev/mapper/sda1_crypt(1)
[lvraid_rimage_1] vgraid Iwi-aor--- <7.28t /dev/mapper/sdb1_crypt(1)
[lvraid_rimage_2] vgraid Iwi-aor--- <7.28t /dev/mapper/sdc1_crypt(1)
[lvraid_rmeta_0] vgraid ewi-aor--- 4.00m /dev/mapper/sda1_crypt(0)
[lvraid_rmeta_1] vgraid ewi-aor--- 4.00m /dev/mapper/sdb1_crypt(0)
[lvraid_rmeta_2] vgraid ewi-aor--- 4.00m /dev/mapper/sdc1_crypt(0)
在恢复我的备份时,各种警报响了,特别是负载突然暴增。即使我停止机器上正在运行的所有程序(它有一堆 docker 容器),它仍然停留在 ~5-7 左右。
iotop 告诉我 IO 最多的进程是dmcrypt_write
...所以我假设这是因为 raid 正在同步所有块,并且当“Cpy%ync”列达到 100% 时它应该结束。
它是否正确?
。R M