无法将 RAID 1 迁移到 RAID10

无法将 RAID 1 迁移到 RAID10

在写这篇文章之前,我做过多次研究。我确实找到了很多关于它的帖子,但没有一篇真正与我的配置相关,所以我在这里写这篇文章。我在 RAID 1 中有 2 个硬盘:

Disque /dev/sdj : 558,9 GiB, 600127266816 octets, 1172123568 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 5C9A14EB-BD49-435D-A136-62086235D780

Périphérique Start        Fin   Secteurs   Size Type
/dev/sdj1     2048 1172121599 1172119552 558,9G Linux filesystem

Disque /dev/sdk : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5

Périphérique      Start        Fin   Secteurs   Size Type
/dev/sdk1          2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdk2    1171875840 1953523711  781647872 372,7G Linux filesystem

sdj1 + sdk1 = RAID1

我将按照此[教程]中的步骤添加另外 2 个磁盘:https://ubuntuforums.org/showthread.php?t=713936对于分区:

`sfdisk /dev/sdd < partitions.sdb`

它之前曾在同一台主机上的另一个 RAID 上工作过。所以我最终得到:

Disque /dev/sdg : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5

Périphérique      Start        Fin   Secteurs   Size Type
/dev/sdg1          2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdg2    1171875840 1953523711  781647872 372,7G Linux filesystem

Disque /dev/sdi : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : sectors of 1 * 512 = 512 octets
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 3DCFB2AE-DABD-4B10-96AF-DB389F943DE5

Périphérique      Start        Fin   Secteurs   Size Type
/dev/sdi1          2048 1171875839 1171873792 558,8G Linux filesystem
/dev/sdi2    1171875840 1953523711  781647872 372,7G Linux filesystem

所以 :

Personalities : [raid1] [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid10] 
md125 : inactive sdn[0]
      976224256 blocks super external:/md126/0

md126 : inactive sdn[0](S)
      538328 blocks super external:ddf

md227 : active raid6 sdl[7] sdh1[6] sde1[5] sdf1[4] sdd1[3] sdc1[0] sdb1[1]
      9766912000 blocks super 1.2 level 6, 512k chunk, algorithm 18 [7/6] [UUUUUU_]
      [=========>...........]  reshape = 46.8% (915172352/1953382400) finish=3557.0min speed=4864K/sec
      bitmap: 2/15 pages [8KB], 65536KB chunk

md127 : active raid1 sdg1[3](S) sdk1[2](S) sdj1[0] sdi1[1]
      585805824 blocks super 1.2 [2/2] [UU]
      bitmap: 4/5 pages [16KB], 65536KB chunk

unused devices: <none>

md127 是 raid1,如您所见,我同时在 raid6 中扩展 raid5。

我为什么会这样:mdadm: Impossibly level change request for RAID1

有了这个 :sudo mdadm --grow /dev/md127 --level=10 --raid-devices=4 --backup-file=/root/raid1backup

因为 RAID6 的增长?还是分区不好?还是因为 raid 阵列已安装并且忙于 docker 容器?

答案1

由于我的备份文件,它最终变得非常简单。我希望它能帮助像我一样找不到足够文档来了解如何在干净重启后重新启动农场的人:

mdadm --stop /dev/md...
mdadm --assemble --backup-file location_of_backup_file  /dev/md...

它应该自动恢复工作,你可以用

mdadm --detail /dev/md....

cat /proc/mdstat

相关内容