mdadm raid 文件系统与磁盘文​​件系统不同

mdadm raid 文件系统与磁盘文​​件系统不同

我在 Debian 上使用 mdadm 创建了一个 raid 5。我使用了 2 个新磁盘和 1 个“旧”磁盘。旧的之前有ext3。使用“parted -l”我注意到 raid 有 ext4 作为文件系统,但旧磁盘有 ext3。

我使用了一个 ubuntuusers 指南来创建 raid。这意味着我执行了:

sudo parted /dev/sde mklabel gpt 
sudo parted -a optimal -- /dev/sde mkpart primary 2048s -8192s  
sudo parted /dev/sde set 1 raid on 

对于每个磁盘以及:

sudo mdadm --create /dev/md0 --auto md --level=5 --raid-devices=3 /dev/sdb1 /dev/sdd1 /dev/sde1

创建突袭。和

sudo mkfs.ext4 -b 4096 -E stride=128,stripe-width=384 /dev/md0 

创建分区

现在我注意到parted -l显示 ext4 用于 raid,但 ext3 用于旧磁盘 (/dev/sde):

Model: ATA WDC WD30EFRX-68E (scsi)
Disk /dev/sdb: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags    
 1      1049kB  3001GB  3001GB               primary  raid

Model: ATA WDC WD30EFRX-68E (scsi)
Disk /dev/sdd: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
 1      1049kB  3001GB  3001GB               primary  raid


Model: ATA ST3000DM001-9YN1 (scsi)
Disk /dev/sde: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt

Number  Start   End     Size    File system  Name     Flags
 1      1049kB  3001GB  3001GB  ext3         primary  raid


Model: Linux Software RAID Array (md)
Disk /dev/md0: 6001GB
Sector size (logical/physical): 512B/4096B
Partition Table: loop

Number  Start  End     Size    File system  Flags
 1      0.00B  6001GB  6001GB  ext4

这会给突袭带来什么麻烦吗?用新格式化的磁盘重新创建它是否明智?

cat /proc/mdstat 输出:

Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sde1[0] sdd1[3] sdb1[1]
      5860259840 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3]     [UUU]

unused devices: <none>

答案1

如果您使用的是元数据 1.2(从一开始为 4K),那么这 4K 中可能存在 mdadm 未使用的旧文件系统元数据。您可以将这些元数据归零:

dd bs=4k count=1 if=/dev/zero of=/dev/sde1

看看这是否可以消除令人反感的消息。

将来在wipefs将该分区用于其他任何操作之前先使用该分区(mdadm、pvcreate、mkfs、parted...)。

相关内容