最近偶然发现了 dRAID,理解文档对于 Linux 上的 OpenZFS,我从图表中得出了一个结论,我想再检查一下。
这是一个全新的系统,我目前正在从头开始构建,并试图规划如何使用我的 5x12TB HDD 磁盘。我的优先事项:
- 数据的完整性
- 存储容量
- I/O 性能
- 正常运行时间(家庭实验室使用)
我对 RAIDz1 的容量和写入性能感到满意,但由于这些驱动器的大小,我不能冒着在重建一个故障驱动器时发生第二个驱动器故障的风险(我的印象是 12TB 驱动器可能需要一天左右的时间,链接的图表似乎也同意这一点)。所以我被迫选择 RAIDz2,这会达到我的整体容量,但我对此没意见。我担心的是写入性能受到影响(我可能只需要运行测试... 另一篇文章)。
无论如何,上面链接中的 dRAID 文档图表表明,即使对于 5 个驱动器,具有奇偶校验 1(相当于 RAIDz1)和分布式备用将重建时间缩短至约 4 小时,并大大减轻了单个新驱动器的负载。由于负担被分担,重建第一个驱动器时,更快的 1 个驱动器重建和更少的写入负载似乎大大降低了出现第二个此类大小的驱动器故障的风险。
问题 1:我知道 dRAID 适用于具有更多磁盘的池,但除了设置的复杂性(我会弄清楚)之外,我只看到选择 dRAID 路由而不是 RAIDz2 的优势。
你同意吗?我是否遗漏了有关 dRAID 的某些信息?
问题2:更具体地说,dRAID 策略是否足够降低了第二个驱动器发生故障的风险,以便我可以恢复仅具有 1 个奇偶校验的容量和性能?鱼与熊掌兼得?
更新:如果有人能指点一下如何使用这两种方法测试此设置,我会尝试一下,这样我们就可以得到一些真实的数据。我是 ZFS 的新手,所以我需要一些帮助。
答案1
你误读了图表:它总共描述了90 个磁盘,具有各种组/vdev 配置。您无法推断出单个 5x RAIDZ1 阵列的任何有用信息。
DRAID 不适用于如此少的磁盘数量。盈亏平衡点可能在 24 个磁盘左右,甚至更多。不要将其用于单个 5 路 RAIDZ1 阵列。
关于 RAIDZ1,除了非常特殊的情况外,我不会将它用于任何大于 4x 4 TB HDD 的阵列(SSD 没问题,不过)。