我在现有 Raid0 阵列中有 4 个 1.8 TB HDD (2 TB)。 /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Fri Mar 31 21:34:58 2017
Raid Level : raid0
Array Size : 7813533696 (7.28 TiB 8.00 TB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
我最近在 Raid0 中添加了 2x 3.7 TB ( 4TB ) NVMe 作为 /dev/md126 ,然后将其添加到 /dev/md0 ,这是我选择的 raid1 设备。
mdadm --create /dev/md0 --force --level=1 --raid-devices=1 /dev/md126
使用 mkfs.ext4 -F /dev/md0 对其进行格式化,并使用 rsync 复制我安装的 md127 stripe 的内容。
然后我将第二个 raid0 添加到镜像中
mdadm --grow /dev/md0 --raid-devices=2 --add /dev/md127
同步完成后,我尝试挂载 /dev/md0 raid01 设备,但失败并显示消息:“挂载:文件系统类型错误、选项错误、/dev/md0 上的超级块错误、缺少代码页或帮助程序或其他错误。”
有趣的是,如果我停止 raid1 并尝试挂载其中一个条带,则无法挂载其中任何一个,并显示需要清理的消息。 dimes 显示“组 0 的块位图不在组中(块 XXXXXX),组描述符已损坏”
我的印象是,当将包含现有数据的磁盘添加到 dmraid raid1 时,数据将被保留,事实不是这样吗?
解决这个问题的“正确方法”是什么,我确实有数据备份;我可以简单地将其恢复到已安装的 md0 设备上还是需要擦除 raid 并重新开始?
附加信息如下:
cat /proc/mdstat
Personalities : [raid0] [raid1]
md0 : active raid1 md126[1] md127[0]
7813401600 blocks super 1.2 [2/2] [UU]
bitmap: 0/59 pages [0KB], 65536KB chunk
md126 : active raid0 nvme1n1[1] nvme0n1[0]
8001308672 blocks super 1.2 512k chunks
md127 : active raid0 sdd[1] sdb[0] sda[3] sdc[2]
7813533696 blocks super 1.2 512k chunks
mdadm -D /dev/XXX
/dev/md0:
Version : 1.2
Creation Time : Sun Oct 29 17:34:29 2023
Raid Level : raid1
Array Size : 7813401600 (7.28 TiB 8.00 TB)
Used Dev Size : 7813401600 (7.28 TiB 8.00 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Mon Oct 30 05:13:32 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : bbox-arch:0 (local to host bbox-arch)
UUID : ddec046f:e66d65b9:9c08802e:ef314054
Events : 7846
Number Major Minor RaidDevice State
0 9 127 0 active sync /dev/md/nas:0
1 9 126 1 active sync /dev/md/bbox-arch:0
/dev/md126:
Version : 1.2
Creation Time : Sun Oct 22 17:53:50 2023
Raid Level : raid0
Array Size : 8001308672 (7.45 TiB 8.19 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Sun Oct 22 17:53:50 2023
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : -unknown-
Chunk Size : 512K
Consistency Policy : none
Name : bbox-arch:0 (local to host bbox-arch)
UUID : 8f382f5f:ac064177:81ebd680:bdcc03ea
Events : 0
Number Major Minor RaidDevice State
0 259 5 0 active sync /dev/nvme0n1
1 259 6 1 active sync /dev/nvme1n1
/dev/md127:
Version : 1.2
Creation Time : Fri Mar 31 21:34:58 2017
Raid Level : raid0
Array Size : 7813533696 (7.28 TiB 8.00 TB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri Mar 31 21:34:58 2017
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : -unknown-
Chunk Size : 512K
Consistency Policy : none
Name : nas:0
UUID : c24bdcd4:4df06194:67f69cea:60916fc8
Events : 0
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 48 1 active sync /dev/sdd
2 8 32 2 active sync /dev/sdc
3 8 0 3 active sync /dev/sda
lsblk 的输出
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sda 8:0 0 1.8T 0 disk
└─md127 9:127 0 7.3T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
sdb 8:16 0 1.8T 0 disk
└─md127 9:127 0 7.3T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
sdc 8:32 0 1.8T 0 disk
└─md127 9:127 0 7.3T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
sdd 8:48 0 1.8T 0 disk
└─md127 9:127 0 7.3T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
...
nvme0n1 259:5 0 3.7T 0 disk
└─md126 9:126 0 7.5T 0 raid0
└─md0 9:0 0 7.3T 0 raid1
nvme1n1 259:6 0 3.7T 0 disk
└─md126 9:126 0 7.5T 0 raid0
└─md0 9:0 0 7.3T 0 raid1