我在 Cockpit UI 中设置了一个包含多个分区的 RAID 6。我特别想利用可用空间将一个分区从 10TB 扩展到 11TB,并尝试使用“growpart /dev/md127p6 1”对 /dev/md127p6 进行扩展。之后我注意到我可以访问此阵列下系统中的某些挂载点(实际上是其中两个)。
从那时起,我决定重新启动(检查了 /proc/mdstat,它什么也没做)。一旦服务器恢复,这次突袭的所有分区都消失了。
服务器恢复在线后,我注意到团队的大小不同(从 189TiB 变为 143TiB)。显然我搞砸了,但我想知道在我重新开始之前是否有人有任何想法。
mdadm --detail /dev/md127 /dev/md127: 版本:1.2 创建时间:2021年5月17日星期一20:04:04 突袭级别:raid6 阵列大小:153545080832(146432.00 GiB 157230.16 GB) 已用设备大小:11811160064(11264.00 GiB 12094.63 GB) 突袭设备:15 总设备数:15 持久性:超级块是持久的
Intent Bitmap : Internal Update Time : Mon Aug 2 20:05:13 2021 State : clean Active Devices : 15 Working Devices : 15 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 4K
一致性策略:位图
Name : storback:backups UUID : c8d289dd:2cb2ded3:cbcff4cd:1e7367ee Events : 150328 Number Major Minor RaidDevice State 0 8 32 0 active sync /dev/sdc 1 8 48 1 active sync /dev/sdd 2 8 64 2 active sync /dev/sde 3 8 80 3 active sync /dev/sdf 4 8 96 4 active sync /dev/sdg 5 8 112 5 active sync /dev/sdh 6 8 128 6 active sync /dev/sdi 7 8 144 7 active sync /dev/sdj 8 8 160 8 active sync /dev/sdk 9 8 192 9 active sync /dev/sdm 10 8 176 10 active sync /dev/sdl 11 8 208 11 active sync /dev/sdn 12 8 224 12 active sync /dev/sdo 13 8 240 13 active sync /dev/sdp 14 65 0 14 active sync /dev/sdq
答案1
好吧,由于这不是一个非常重要的设备,我尝试随机应变,将 raid 扩大到最大大小,因为总大小不正确。看起来 raid 大小几乎缩小了我之前拥有的未分区可用空间量。
我运行了此命令,重新启动后所有分区都恢复了:
mdadm --grow /dev/md127 -z max