这个 RAID 5 配置中多少个磁盘算太多?

这个 RAID 5 配置中多少个磁盘算太多?
  • HP 2012i SAN,
  • RAID 5 中的 7 个磁盘,带有 1 个热备用磁盘,
  • 花了几天的时间将卷从 5 个 300GB SAS 驱动器扩展到 7 个。

寻求建议,关于何时以及如何确定在 SAN 中拥有 2 个卷,每个卷都有 RAID 5,会更好??

有一天我可以向控制器添加 3 个驱动器,SAN 用于 ESX/vSphere VM。

谢谢...

答案1

我已经思考这个问题一段时间了。有许多因素决定了应该将多少个磁盘放入 RAID5 阵列。我不了解 HP 2012i,因此以下是我对 RAID5 的一般建议:

  • 不可恢复的读取错误率:当发生不可恢复的读取错误时,该读取将失败。对于健康的 RAID5 阵列来说,这没有问题,因为可以在奇偶校验信息中找到丢失的读取。如果在重建,当读取整个 RAID5 集以重新生成奇偶校验信息时,可能会导致整个 RAID5 阵列丢失。此速率的测量方式如下:“每 10 14位 1 个”,可在驱动器的详细技术规格中找到。您不希望 RAID5 阵列的大小超过该大小的一半。企业级驱动器(10K RPM SAS 合格)比台式机驱动器(SATA)的使用寿命更长。
  • 重建期间性能下降:如果表现明显地重建期间的性能很差,您需要确保您的阵列能够快速重建。根据我的经验,重建期间的写入性能往往比读取性能差很多。了解您的 I/O。您对不良 I/O 性能的容忍度将限制 RAID5 阵列的规模。
  • 其他阵列操作期间性能下降:添加磁盘、创建 LUN、更改条带宽度、更改 RAID 级别。所有这些都会影响性能。有些控制器在隔离性能影响方面非常出色。其他控制器则不太好。进行一些测试,看看这些操作期间情况有多糟糕。了解重新划分第二个 RAID5 阵列是否会影响第一个 RAID5 阵列的性能。
  • 扩展/重新条带化操作的频率:添加磁盘或在某些控制器上创建新的 LUN 也会导致整个阵列重新进行奇偶校验。如果您计划进行主动扩展,那么您遇到这种性能下降的频率将比简单的磁盘故障率所暗示的要高得多。

RAID6(双重奇偶校验)是一种解决不可恢复读取错误率问题的方法。但它确实会增加控制器开销,因此如果您使用这种方法,请注意控制器上的 CPU 限制。使用 RAID6 会更快遇到 I/O 瓶颈。如果您确实想尝试 RAID6,请进行一些测试以查看它是否会按照您需要的方式运行。它是一个奇偶校验 RAID,因此它在重建、扩展和重新条带化方面具有与 RAID5 相同的性能损失,它只是让您以更安全的方式扩大规模。

答案2

RAID 5 本身并没有明确的磁盘数量限制。您遇到的限制通常与 RAID 5 有关写入性能相对较差,以及其他地方施加的限制(RAID 控制器、您自己的数据组织等)。

话虽如此,使用 7-8 个磁盘就接近常见 RAID 5 部署的上限。我估计绝大多数 RAID 5 部署使用的磁盘数不到 10 个。如果需要更多磁盘,通常会选择嵌套 RAID 级别,例如 RAID“50”

我更困惑于您选择保留一个大阵列来处理所有这些问题。使用两个阵列,一个 RAID5 用于处理速度较慢、主要为读取的数据,另一个 RAID 10 用于处理 I/O 密集型数据(写入次数较多),这样不是更能满足您的需求吗?

答案3

就我而言,我会做两个三磁盘阵列,带一个共享热备用。

如果您不需要大于 3 个磁盘阵列的单个空间块,那么就没有必要将所有 6 个磁盘塞进 1 个 raid。您不会在性能或整体空间方面获得任何好处,而且,如果两个磁盘发生故障,您可能会处于更好的位置。

@Dayton Brown:全部的空间将保持不变...RAID5 中的 3 个 1TB 驱动器是多少,1.8TB?按照相同的标准,6 个将是 3.6,因此从这个意义上讲,即使总空间保持不变,您在该特定 RAID 卷中也会拥有更多空间。不同之处在于,RAID5 只允许 1 个奇偶校验驱动器,无论 RAID 中有 3 个驱动器还是 300 个驱动器,因此将驱动器分成可管理的组可以增加对多个故障的保护。例如,即使您丢失了 3 个磁盘,您也只会丢失一半的数据。

如果您转向 RAID6,六磁盘阵列会更有意义,因为即使丢失两个磁盘也不会有什么问题。但大多数人会直接跳到 RAID10,而跳过 6。

答案4

使用 RAID5,您希望尽可能减少磁盘数量,同时仍提供必要的空间。热备用每个 RAID5 阵列,以确保可靠性。

RAID6确实是未来添加的一个好主意。用磁盘完全填充阵列的其余部分,并使用 RAID6 使用所有可用磁盘创建一个新 LUN,并带有一个热备用。将您的虚拟机迁移到新的 LUN 并将该 RAID5 阵列转换为 RAID6。

很多人, 实际上,推荐这个, 尤其在这个时代

相关内容