我有两台 Dell R710,配备 8 核 64+ GB RAM,闪存 Dell H200,带 9211 IT 模式,4 个组合 gbe nics,服务器 2016 一台服务器具有:2 x 480 GB SSD 3X 2TB HDD 1x 3 TB HDD 另外 2 x 240 GB SSD 4 x 2 TB HDD
我有一台配备 2012 R2 SS 的外部服务器,只有 2x4TB 驱动器,另一台配备 6+ HDD(没有 SSD)。
外部服务器之间的传输速度最高可达 1GB 连接,文件传输速度为 100MB/s。从这些服务器到我的 S2D 集群,最高速度约为 14MB/s 左右。
我找不到任何东西来帮助我诊断为什么速度这么慢。列数 4,4k,镜像,集群验证报告检查,我该怎么做才能弄清楚为什么速度这么慢?我知道 10Gbe 和 RDMA 是“推荐的”,但我不确定它为什么这么糟糕。这将是我家里的新集群,但它真的不能像这样使用。救命?绝望.....
此外,Windows VM 显示磁盘的平均响应时间为 500ms。哎呀
答案1
您确实需要支持 RDMA 的 10 GbE 来实现主干连接。4x1GbE 对 Storage Spaces Direct 来说根本不够。获取 Mellanox ConnectX3 或类似卡,您可以从 eBay 上以低价购买二手/翻新卡。
PS S2D 在双节点配置上表现不佳......
答案2
我可能会尝试 10GBe 卡。试图查明并证明是网络阻碍了我。我就是找不到证据。
支持 RDMA 的 10GbE NIC 是 S2D 的必要条件。另外,我只想补充一点,@BaronSamedi1958 说得对,“S2D 在双节点配置上表现不佳……”因此我建议看一下为 2 个节点设计的 SDS 解决方案。首先,我想到的是 HPE VSA,它们可以使用云见证创建 2 个节点 HA,或者您可以尝试 StarWind VSAN,它们只使用 2 个节点,不需要见证节点。