扩大 RAID6 (mdadm),包括更新条带宽度

扩大 RAID6 (mdadm),包括更新条带宽度

我正在运行 Debian Bullseye (OpenMediaVault 6),内核为 6.0.3-1。我设置了一个 RAID6 阵列,由 4 个 6TB Seagate Ironwolf HDD(4KiB 扇区,512KiB 模拟)组成。

当我创建文件系统时,我确保指定了 stride-size 和 sripe-width(正如我读过的一些指南中所建议的那样)。数组的块大小为 512KiB。我使用了stride-size = 512KiB (chunk size) / 4KiB (HDD sector size) = 128stripe-width = 128 (stride-size) * 2 (number of useable disks, RAID6 = N-2) = 256。因此,我用来创建文件系统的命令是mkfs.ext4 -b 4096 -E stride=128,stripe-width=256 /dev/md0。 的输出dumpe2fs -h /dev/md0确认了 2 个参数。

现在我想向阵列添加一个额外的磁盘以增加总可用大小。使用额外的磁盘,步长必须保持在 128,但条带宽度需要为 384 而不是 256 。我想知道扩大阵列和调整条带宽度的适当过程是什么。

  1. 当我扩大阵列并在调整条带宽度之前重建阵列时,重建过​​程中的数据将无法最佳地放置在磁盘上,对吗?重建后更改条带宽度不会对先前写入的数据产生任何影响。

  2. 在扩大阵列之前,我是否应该使用 来调整stripe-width以确保数据在磁盘上的最佳放置tune2fs -E stripe-width=384?据我所知,更改条带宽度只会影响新写入的数据。

对于数组的增长和文件系统的大小调整,我可能会遵循以下指南https://raid.wiki.kernel.org/index.php/Growingstripe-width除非有人有更好的办法。尽管如此,在采取任何进一步措施之前,我还是想澄清我应该如何处理这一变化。

相关内容