iSCSI + GFS 环境的硬件和拓扑建议

iSCSI + GFS 环境的硬件和拓扑建议

我们目前正在评估使用 GFS+iSCSI 的新环境的硬件和拓扑解决方案,并希望获得一些建议/提示。我们过去部署过类似的解决方案,其中访问 GFS 节点的所有主机都是 GFS 节点本身。新的拓扑将把 GFS 节点与访问它们的客户端分开。

基本图表如下:

GFS_client <-> gigE <-> GFS 节点 <-> gigE <-> iSCSI SAN 设备

  1. 这是设置 GFS+iSCSI 的最优方法吗?
  2. 您对 GFS 节点本身的硬件有什么建议吗(即 CPU 或内存占用较高)?
  3. 您对调整/配置设置以提高 GFS 节点性能有何建议?
  4. 目前,我们每台主机使用 3-4 千兆以太网连接,以实现性能和冗余。此时,10 千兆以太网或光纤在成本/扩展方面是否更具吸引力?

答案1

  1. 我认为不存在“最佳”设置。只需确保在 GFS 之前启动 iSCSI 启动器即可。您已经将绑定指定为冗余/性能指标。您可能还应该考虑设置到目标的多路径连接,如果您有 4 个 NIC,也许可以在 2 个绑定接口上创建 2 条路径以获得更好的冗余。如果您有支持该功能的专用 iSCSI 交换机,您还应该考虑使用巨型帧。

  2. GFS 作为一个子系统对系统的影响不是很大。内核中有一些锁,节点之间有一些成员信息/心跳,仅此而已。另一方面,由于您计划将它们作为 GFS 节点和客户端访问的服务器,因此您可能应该为服务器投资网卡/交换机和 RAM。

  3. 巨型帧。如果可能的话,在两侧(iscsi 和客户端)进行 803.2ad 链路聚合。tcp 堆栈优化(/proc/sys/net/ipv4/tcp_rmem|wmem)

  4. 我将跳过这一个,我不知道 10ge 的成本。

答案2

对于这个问题我唯一能给出答案的部分是问题#4。

我们评估并考虑将 10GbE 用于我们的 SAN,并决定坚持使用组合/负载平衡的 1Gb 适配器更便宜、更有效、更安全。使用 10GigE 实现相同级别的冗余度是天文数字,并且为客户端提供的性能提升微不足道(毕竟,您不会在每个客户端中都安装 10GbE 卡)。

答案3

您考虑过网络冗余吗?GFS 集群很容易丢失心跳。我们对所有集群和 iSCSI 链路使用接口绑定,并连接到单独的交换机。

答案4

我们正在评估我们新 SAN 的解决方案,Equalogic 产品看起来非常适合 iscsi。每个捆绑包包含 15 个磁盘和 2 个控制器(每个 A/P 4GB)。当您每 15 个磁盘添加 2 个控制器时,性能会线性增加,同时存储容量也会增加。

它们目前还没有达到 10Ge,但每个控制器都有 4 个链接。它们提供真正的精简配置

官方页面链接

相关内容