如何最好地将大型 NVMe 阵列用于 VMWare 数据存储

如何最好地将大型 NVMe 阵列用于 VMWare 数据存储

我最近在工作中购买了一台 Supermicro SYS-1029P-N32R,它带有 16 个 14TB NVMe SSD(Micron 9300 Pro)。我们在机器上为我们的 VMWare 主机提供了 100 千兆位网络。我们尝试使用 FreeNAS 将 ZFS zvol 作为 iSCSI LUN 托管,但结果并不令人满意 - 而且 FreeBSD/FreeNAS 在机器上不受官方支持。具体来说,我们发现了一些奇怪的网络问题。

有人想过如何让这台机器作为 VMWare 主机发挥最佳性能吗?连接到它的所有主机都是 ESXi 7.0。

  • 通过 NFS 提供的 CentOS/RHEL 8 上的 RAID 10 XFS 怎么样?哪种设置/条带大小最适合?

  • CentOS/RHEL 8 上的 Ceph 每个磁盘有一个 OSD?

  • Windows Server 作为 iSCSI 主机?

我们无法访问 vSAN,因此我们需要 Linux 或 Windows 解决方案。

答案1

Ceph 不适合你,因为需要有 4 个节点作为故障域。如果只有一个节点和一堆 OSD,在计划内或计划外的主机停机后,你最终会面临痛苦的重建。Windows 不适合,因为它的 iSCSI 目标未通过 ESXi / vSphere 存储认证,而且总体而言,它是一种性能相当低的解决方案。单个 Ubuntu 盒带有 ZFS 和 LIO,可以暴露一些 iSCSI LUN,应该可以解决问题。

答案2

有一些建议,但你必须测试才能找到最佳答案/解决方案。

我建议您使用受支持的 Linux 发行版、Redhat/Centos 或 Debian/Ubuntu 服务器,并尝试 iSCSI 目标和 NFS 服务器,以检查哪个能提供最佳结果。Bonnie++是一款不错的基准测试工具。至于文件系统、XFS 或 ext4,我认为您不会看到太多差异,但您也可以进行一些测试。还有 F2FS,闪存友好型,但我还不相信它可用于生产服务器。

我想你指的是硬件 RAID。如果我有硬件 RAID 控制器,我不会选择软件 RAID。

Ceph 可以用作块存储,但它应该是分布式的。在一台机器、一台存储服务器上,这有什么意义呢?它肯定有一些开销,我认为你不会获得任何更好的性能。但是,如果你有时间,为什么不也测试一下呢。

Windows iSCSI 目标?我并不完全反对。但我更喜欢类似 UNIX 的操作系统,因为它有自定义选项。Windows 无法提供同样的灵活性。

来个更奇特的测试怎么样?NexentaStor- 这是一个基于 OpenSolaris 的操作系统,原生 ZFS,用于存储服务。它还有一个社区版。

如果您愿意的话,请分享您的结果!

相关内容