在写这篇文章之前,我做过多次研究。我确实找到了很多关于它的帖子,但没有一篇真正与我的配置相关,所以我在这里写这篇文章。我在 RAID 1 中有 2 个硬盘:
Disque /dev/sdj : 558,9 GiB, 600127266816 octets, 1172123568 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 5C9A14EB-BD49-435D-A136-62086235D780
Périphérique Start Fin Secteurs Size Type
/dev/sdj1 2048 1172121599 1172119552 558,9G Linux filesystem
Disque /dev/sdk : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5
Périphérique Start Fin Secteurs Size Type
/dev/sdk1 2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdk2 1171875840 1953523711 781647872 372,7G Linux filesystem
sdj1 + sdk1 = RAID1
我将按照此[教程]中的步骤添加另外 2 个磁盘:https://ubuntuforums.org/showthread.php?t=713936对于分区:
`sfdisk /dev/sdd < partitions.sdb`
它之前曾在同一台主机上的另一个 RAID 上工作过。所以我最终得到:
Disque /dev/sdg : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5
Périphérique Start Fin Secteurs Size Type
/dev/sdg1 2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdg2 1171875840 1953523711 781647872 372,7G Linux filesystem
Disque /dev/sdi : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5
Périphérique Start Fin Secteurs Size Type
/dev/sdi1 2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdi2 1171875840 1953523711 781647872 372,7G Linux filesystem
所以 :
Personalities : [raid1] [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid10]
md125 : inactive sdn[0]
976224256 blocks super external:/md126/0
md126 : inactive sdn[0](S)
538328 blocks super external:ddf
md227 : active raid6 sdl[7] sdh1[6] sde1[5] sdf1[4] sdd1[3] sdc1[0] sdb1[1]
9766912000 blocks super 1.2 level 6, 512k chunk, algorithm 18 [7/6] [UUUUUU_]
[=========>...........] reshape = 46.8% (915172352/1953382400) finish=3557.0min speed=4864K/sec
bitmap: 2/15 pages [8KB], 65536KB chunk
md127 : active raid1 sdg1[3](S) sdk1[2](S) sdj1[0] sdi1[1]
585805824 blocks super 1.2 [2/2] [UU]
bitmap: 4/5 pages [16KB], 65536KB chunk
unused devices: <none>
md127 是 raid1,如您所见,我同时在 raid6 中扩展 raid5。
我为什么会这样:mdadm: Impossibly level change request for RAID1
有了这个 :sudo mdadm --grow /dev/md127 --level=10 --raid-devices=4 --backup-file=/root/raid1backup
因为 RAID6 的增长?还是分区不好?还是因为 raid 阵列已安装并且忙于 docker 容器?
答案1
由于我的备份文件,它最终变得非常简单。我希望它能帮助像我一样找不到足够文档来了解如何在干净重启后重新启动农场的人:
mdadm --stop /dev/md...
mdadm --assemble --backup-file location_of_backup_file /dev/md...
它应该自动恢复工作,你可以用
mdadm --detail /dev/md....
和cat /proc/mdstat