ZFS 100TB 硬件设置

ZFS 100TB 硬件设置

我们收到了以下服务器设置的报价:

  • 英特尔至强 E5-2609V2
  • 2 个 WD RE 2TB SATA III
  • 34 个 WD RE 4TB SAS II
  • 32 GB 内存 (ECC)
  • LSI MegaRAID 9271-8i 批量,8 x SATA III/SAS II 内部硬件 RAID
  • 适用于 9266-9271 系列的 LSI CacheVault

我们想(直接)添加一个磁盘阵列到那台服务器,一半装有 8TB 驱动器,我们可以稍后扩展。他们建议:

  • LSI MegaRAID 9380-8e
  • 22 个 HGST Ultrastar 8TB He8 企业版,SAS III

现在,这是基于我们以前的服务器,我们将其设置为 ZFS 服务器,但并没有带来太多的“乐趣”。 (虽然我猜是配置造成的)

我对此设置有几个问题: - 采用 2x2TB 的理由是,将其用作系统的镜像,因为当必须更换磁盘时,重建期间 IO 会变得迟缓。速度不是我们真正的问题,空间才是,而且我们有一个在线备份,它将仅用作读取平台(在出现问题时)。36 x 4TB 会是更好的选择吗?(池中的 36 = 3*12 个磁盘) - 32 Gb 内存是否足够?(Linux 上的 ZFS,考虑到 JBOD 的最大容量为 44*8+32*4) - 这是一个 raid 控制器,JBOD/HBA (?) 会是更好的选择吗?如果是这样,我应该寻找哪种 JBOD? - 我如何最好地设置此系统以“准备好”升级 JBOD 中的接下来的 22 个磁盘?(它是一个 44 个磁盘的 JBOD,22 个插槽已填满)

根据评论提供的更多信息:

  • 正常运行时间/可用性:我们不在乎它是否会在几分钟内掉线,只要这种情况不常见即可。无需 HA。本质上,这将是我们当前存储服务器的热备份。我们主要读取和写入不受速度限制。(到目前为止)
  • 阅读速度很重要,但我们不想为此放弃空间
  • 写入速度并不是那么重要,大部分数据流都来自机器,而大文件则写入副本,因此它可以在一夜之间运行。

答案1

我会与 ZFS 专家或专门提供基于 ZFS 的解决方案的供应商合作。你谈论的是 100TB 的数据,在这种规模下,出现问题的可能性太大了。

ZFS 并不是一件容易做好的事情;特别是当你结合高可用性和弹性设计时。

我不会计划使用半填充存储机柜或类似的东西。使用 RAIDZ1/2/3 扩展 ZFS 阵列并非易事,扩展 ZFS 镜像可能会使数据不平衡。

答案2

我不确定是否会在 Linux 上使用 ZFS 进行这样的设置,因为 ZoL 仍然是一个有点“移动目标”。

至于你的 RAID 卡,如果可以配置为 JBOD,那就没问题了。但是,如果它只能在 RAID 模式下工作,我会将其换成 JBOD/HBA 适配器。

无论如何,正如 ewwhite 所建议的那样,我会向专业的 ZFS 供应商/顾问咨询。

相关内容