由于性能下降,我是否应该避免将两个 SSD 放入 RAID1 配置中?

由于性能下降,我是否应该避免将两个 SSD 放入 RAID1 配置中?

我有一个工作站系统,将配备两个 64GB 工业 SSD,计划将两个磁盘置于 RAID1 配置中以实现冗余,该配置在 kickstart 中设置。系统将运行 CentOS 7。在研究这个问题时,我发现RHEL 存储管理指南不建议对 SSD 使用 RAID1。

Red Hat 还警告称,不建议在 SSD 上使用软件 RAID 级别 1、4、5 和 6。在这些 RAID 级别的初始化阶段,某些 RAID 管理实用程序(如 mdadm)会写入存储设备上的所有块,以确保校验和正常运行。这将导致 SSD 的性能迅速下降。

这是我应该认真关注的事情吗?我可以使用其他冗余方法吗?

根据RHEL 文档再次,LVM 镜像现在利用 MD 软件 RAID,因此 RAID 警告也适用于此。

更多信息:SSD 是 Swissbit X-200 系列 (SATA),看起来过度配置达到了 40%。

据硬件团队称,硬件 RAID 将不是一种选择。

答案1

我不太推荐使用 Linux 软件 RAID 和 SSD,尤其是用于启动时。我会根据潜在的故障情况以及停机的影响做出决定。对于工业 SSD,我通常单独使用它们,而不使用 RAID。

如果该工作站出现故障,您能多快 1). 从备份中恢复或 2). 重建/重新映像?

这些 SSD 是什么类型(品牌/型号)?如果配置过多,这可能不是什么大问题。如果它们是 SATA 并连接到主板,您将有一些 TRIM 选项。

您可以使用入门级 LSI 硬件 RAID 控制器来简化部署和恢复。至少底层 RAID 对操作系统是透明的。


编辑:

这些都是过度配置的工业级SSDs. 正常配置 RAID 1 镜像并随时间监控驱动器。

答案2

我是不是应该认真关注这件事?

是否有我可以采用的冗余替代方案?

我更喜欢硬件 RAID 控制器,但这是个人事情,你这样就很好了。

答案3

你应该问的问题是该文档是什么时候编写的。它们通常使用相同的材​​料,并在需要时进行更新,而 SSD 技术从那时起就发生了变化。

尽管它们都是工业级的,但写入和读取性能并不相同。文档中提到的是写入性能,但使用镜像设置,/boot 和 / mounts 的读取性能会更好。

因此,从某些方面质疑文献是值得的。

答案4

您可以在软 RAID1 配置中使用它而不会出现太多问题(即使 SSD 没有过多配置),但创建后只能对其进行 TRIM。

您可以通过以下方式之一进行操作:

  • 使用足够新的内核,支持 MD 将 TRIM 传递到 SSD(至少 3.8.something IIRC,但请检查),并且每晚运行 fstrim(8)(来自 util-linux 包)

  • 使用足够新的内核,并在其上设置“丢弃”挂载选项(适用于 ext4/xfs)。请注意,这比上面的性能要低,因为 TRIM 是非队列化的,并且这不会利用上面的批处理

  • 在较旧的内核上,运行夜间 cron run修剪. 请务必使用提供的测试脚本进行测试把重要数据放在上面!

还请注意,它只适用于软 RAID 上的文件系统。它不适用于大多数硬件 RAID。此外,如果您在 MD 软 RAID 之上有 LVM 或其他层,它(目前)将不起作用。您需要大量的超额配置才能幸存下来(幸运的是,您有 40%,所以没问题)。

相关内容