重启后 mdadm 分区消失

重启后 mdadm 分区消失

我在 Cockpit UI 中设置了一个包含多个分区的 RAID 6。我特别想利用可用空间将一个分区从 10TB 扩展到 11TB,并尝试使用“growpart /dev/md127p6 1”对 /dev/md127p6 进行扩展。之后我注意到我可以访问此阵列下系统中的某些挂载点(实际上是其中两个)。

从那时起,我决定重新启动(检查了 /proc/mdstat,它什么也没做)。一旦服务器恢复,这次突袭的所有分区都消失了。

服务器恢复在线后,我注意到团队的大小不同(从 189TiB 变为 143TiB)。显然我搞砸了,但我想知道在我重新开始之前是否有人有任何想法。

mdadm --detail /dev/md127 /dev/md127: 版本:1.2 创建时间:2021年5月17日星期一20:04:04 突袭级别:raid6 阵列大小:153545080832(146432.00 GiB 157230.16 GB) 已用设备大小:11811160064(11264.00 GiB 12094.63 GB) 突袭设备:15 总设备数:15 持久性:超级块是持久的

 Intent Bitmap : Internal

   Update Time : Mon Aug  2 20:05:13 2021
         State : clean
Active Devices : 15    Working Devices : 15
Failed Devices : 0
 Spare Devices : 0

        Layout : left-symmetric
    Chunk Size : 4K

一致性策略:位图

          Name : storback:backups
          UUID : c8d289dd:2cb2ded3:cbcff4cd:1e7367ee
        Events : 150328

Number   Major   Minor   RaidDevice State
   0       8       32        0      active sync   /dev/sdc
   1       8       48        1      active sync   /dev/sdd
   2       8       64        2      active sync   /dev/sde
   3       8       80        3      active sync   /dev/sdf
   4       8       96        4      active sync   /dev/sdg
   5       8      112        5      active sync   /dev/sdh
   6       8      128        6      active sync   /dev/sdi
   7       8      144        7      active sync   /dev/sdj
   8       8      160        8      active sync   /dev/sdk
   9       8      192        9      active sync   /dev/sdm
  10       8      176       10      active sync   /dev/sdl
  11       8      208       11      active sync   /dev/sdn
  12       8      224       12      active sync   /dev/sdo
  13       8      240       13      active sync   /dev/sdp
  14      65        0       14      active sync   /dev/sdq

答案1

好吧,由于这不是一个非常重要的设备,我尝试随机应变,将 raid 扩大到最大大小,因为总大小不正确。看起来 raid 大小几乎缩小了我之前拥有的未分区可用空间量。

我运行了此命令,重新启动后所有分区都恢复了:

mdadm --grow /dev/md127 -z max

相关内容