伙计们!最近升级了我们的基础设施后,我得到了一堆退役的硬件,我想将它们用于存储目的,同时尝试一些新东西。因此,我有 4 台 DELL R630 服务器,里面有 6 个 HDD 和 2 个 SSD。驱动器 SMART 是绿色的,所以我想将这些服务器用作高可用性专用存储集群。我想尝试新的 Windows 2016 Storage Spaces Direct 技术作为专用的 Scale-Out File 服务器集群,所以我为它们订购了 4 个 Mellanox Connectx4 双端口 10 Gbe NIC。您知道如何正确部署此类配置吗?这种情况有什么麻烦或缺点吗?由于所有官方指南都只涵盖超融合方法,因此专用 SoFS 的简短分步指导将非常棒!
答案1
如果您愿意为许可支付大量费用,您的方案就没问题。您还需要一个支持 PFC 的互连结构和交换机才能使用 SMB Direct 功能(我假设您会喜欢使用它,因为具有 RDMA 功能的 Mellanox NIC 非常棒)。
您的驱动器允许您创建基于奇偶校验的容量层,并在其上添加一些基于 SSD 的缓存(或更快的层),这很好。不过,除非您的工作负载完全适合您的 SSD 缓存/层,否则我不会期望此设置具有出色的性能。S2D 中使用的软件奇偶校验 RAID/RAIN 在性能方面仍然很差。
TechNet 上有很多关于如何规划 S2D 集群的信息https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces/storage-spaces-direct-overview。
您可以在此处找到涵盖您的特定场景的分步指南:https://www.starwindsoftware.com/blog/microsoft-storage-spaces-direct-4-node-setup-2
答案2
基于 S2D 构建 SoFS 几乎没有任何意义。原因如下:
1) 到处都有数据中心版本。它很贵(6000 美元以上),而对于超融合场景,您需要为使用 SOFS 的 Windows Server VM 许可付费,但您无需付费……无需运行任何 VM!
2) 据我所知,自 TP5 以来,双头配置是可能的,但没有本地重建代码(阅读:集群不能容忍双磁盘故障 - 这在存储阵列世界中是无稽之谈!),没有擦除编码,也没有多弹性虚拟磁盘。使用更多磁头可以解决问题,但那是(4 * 数据中心)版本,并且... 您在存储阵列中看到过很多四重活动存储控制器吗?!是的,有两个。有时是三个(Infinidat?)。
因此,坚持使用集群存储空间作为 SoFS 后端(超成熟的解决方案)或在节点之间使用一些复制,仅在软件上花费就远远少于 12,000 美元。