我已经向我的服务器添加了一个新的更大的 RAID 5 阵列(57TB),并使用“dd”复制了旧的 RAID 5(20TB)。
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sdl1[6] sdk1[4] sdj1[3] sdi1[2] sdh1[1] sdg1[0]
19534425600 blocks super 1.2 level 5, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/30 pages [0KB], 65536KB chunk
md1 : active raid5 sdc[2] sdd[3] sde[4] sdf[6] sda[0] sdb[1]
57403632640 blocks super 1.2 level 5, 512k chunk, algorithm 2 [6/6] [UUUUUU]
bitmap: 0/86 pages [0KB], 65536KB chunk
unused devices: <none>
问题是复制后旧数组 (/dev/md0) 的大小与新数组 (/dev/md1) 的大小相同。这当然是不可能的。
df
/dev/md0 19455645304 12996096208 5482811432 71% /oldarray
/dev/md1 19455645304 12996096208 5482811432 71% /md0
我认为问题可能与分区有关。我在创建新 RAID 之前没有对其进行分区(mdadm)。
lsblk
sda 8:0 1 10.7T 0 disk
└─md1 9:1 0 53.5T 0 raid5 /md0
sdb 8:16 1 10.7T 0 disk
└─md1 9:1 0 53.5T 0 raid5 /md0
sdc 8:32 1 10.7T 0 disk
└─md1 9:1 0 53.5T 0 raid5 /md0
sdd 8:48 1 10.7T 0 disk
└─md1 9:1 0 53.5T 0 raid5 /md0
sde 8:64 1 10.7T 0 disk
└─md1 9:1 0 53.5T 0 raid5 /md0
sdf 8:80 1 10.7T 0 disk
└─md1 9:1 0 53.5T 0 raid5 /md0
sdg 8:96 0 3.6T 0 disk
└─sdg1 8:97 0 3.6T 0 part
└─md0 9:0 0 18.2T 0 raid5 /oldarray
sdh 8:112 0 3.6T 0 disk
└─sdh1 8:113 0 3.6T 0 part
└─md0 9:0 0 18.2T 0 raid5 /oldarray
sdi 8:128 0 3.6T 0 disk
└─sdi1 8:129 0 3.6T 0 part
└─md0 9:0 0 18.2T 0 raid5 /oldarray
sdj 8:144 0 3.6T 0 disk
└─sdj1 8:145 0 3.6T 0 part
└─md0 9:0 0 18.2T 0 raid5 /oldarray
sdk 8:160 0 3.6T 0 disk
└─sdk1 8:161 0 3.6T 0 part
└─md0 9:0 0 18.2T 0 raid5 /oldarray
sdl 8:176 0 3.6T 0 disk
└─sdl1 8:177 0 3.6T 0 part
└─md0 9:0 0 18.2T 0 raid5 /oldarray
sdm 8:192 0 1.8T 0 disk
└─sdm1 8:193 0 1.8T 0 part
如果可能的话,有人能告诉我如何在不破坏新阵列的情况下解开这个问题吗?我不想再做那个复制。TIA。
答案1
由于您使用了 dd,因此您将分区和文件系统信息复制到了新阵列。您需要扩展新阵列上的分区,以使用所有可用空间,并扩展文件系统。使用 gparted 最简单。