Raid0+1 - dmraid 的意外结果

Raid0+1 - dmraid 的意外结果

我在现有 Raid0 阵列中有 4 个 1.8 TB HDD (2 TB)。 /dev/md127

/dev/md127:
           Version : 1.2
     Creation Time : Fri Mar 31 21:34:58 2017
        Raid Level : raid0
        Array Size : 7813533696 (7.28 TiB 8.00 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

我最近在 Raid0 中添加了 2x 3.7 TB ( 4TB ) NVMe 作为 /dev/md126 ,然后将其添加到 /dev/md0 ,这是我选择的 raid1 设备。

mdadm --create /dev/md0 --force --level=1 --raid-devices=1 /dev/md126

使用 mkfs.ext4 -F /dev/md0 对其进行格式化,并使用 rsync 复制我安装的 md127 stripe 的内容。

然后我将第二个 raid0 添加到镜像中

mdadm --grow /dev/md0 --raid-devices=2 --add /dev/md127

同步完成后,我尝试挂载 /dev/md0 raid01 设备,但失败并显示消息:“挂载:文件系统类型错误、选项错误、/dev/md0 上的超级块错误、缺少代码页或帮助程序或其他错误。”

有趣的是,如果我停止 raid1 并尝试挂载其中一个条带,则无法挂载其中任何一个,并显示需要清理的消息。 dimes 显示“组 0 的块位图不在组中(块 XXXXXX),组描述符已损坏”

我的印象是,当将包含现有数据的磁盘添加到 dmraid raid1 时,数据将被保留,事实不是这样吗?

解决这个问题的“正确方法”是什么,我确实有数据备份;我可以简单地将其恢复到已安装的 md0 设备上还是需要擦除 raid 并重新开始?

附加信息如下:

cat /proc/mdstat
Personalities : [raid0] [raid1] 
md0 : active raid1 md126[1] md127[0]
      7813401600 blocks super 1.2 [2/2] [UU]
      bitmap: 0/59 pages [0KB], 65536KB chunk

md126 : active raid0 nvme1n1[1] nvme0n1[0]
      8001308672 blocks super 1.2 512k chunks
      
md127 : active raid0 sdd[1] sdb[0] sda[3] sdc[2]
      7813533696 blocks super 1.2 512k chunks
       
mdadm -D /dev/XXX
/dev/md0:
           Version : 1.2
     Creation Time : Sun Oct 29 17:34:29 2023
        Raid Level : raid1
        Array Size : 7813401600 (7.28 TiB 8.00 TB)
     Used Dev Size : 7813401600 (7.28 TiB 8.00 TB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Mon Oct 30 05:13:32 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : bbox-arch:0  (local to host bbox-arch)
              UUID : ddec046f:e66d65b9:9c08802e:ef314054
            Events : 7846

    Number   Major   Minor   RaidDevice State
       0       9      127        0      active sync   /dev/md/nas:0
       1       9      126        1      active sync   /dev/md/bbox-arch:0
/dev/md126:
           Version : 1.2
     Creation Time : Sun Oct 22 17:53:50 2023
        Raid Level : raid0
        Array Size : 8001308672 (7.45 TiB 8.19 TB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Sun Oct 22 17:53:50 2023
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

            Layout : -unknown-
        Chunk Size : 512K

Consistency Policy : none

              Name : bbox-arch:0  (local to host bbox-arch)
              UUID : 8f382f5f:ac064177:81ebd680:bdcc03ea
            Events : 0

    Number   Major   Minor   RaidDevice State
       0     259        5        0      active sync   /dev/nvme0n1
       1     259        6        1      active sync   /dev/nvme1n1
/dev/md127:
           Version : 1.2
     Creation Time : Fri Mar 31 21:34:58 2017
        Raid Level : raid0
        Array Size : 7813533696 (7.28 TiB 8.00 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Fri Mar 31 21:34:58 2017
             State : clean 
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : -unknown-
        Chunk Size : 512K

Consistency Policy : none

              Name : nas:0
              UUID : c24bdcd4:4df06194:67f69cea:60916fc8
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       48        1      active sync   /dev/sdd
       2       8       32        2      active sync   /dev/sdc
       3       8        0        3      active sync   /dev/sda



lsblk 的输出

NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
sda           8:0    0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdb           8:16   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdc           8:32   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
sdd           8:48   0   1.8T  0 disk  
└─md127       9:127  0   7.3T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
...
nvme0n1     259:5    0   3.7T  0 disk  
└─md126       9:126  0   7.5T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1 
nvme1n1     259:6    0   3.7T  0 disk  
└─md126       9:126  0   7.5T  0 raid0 
  └─md0       9:0    0   7.3T  0 raid1

相关内容