我正在努力扩展数据中心中多个 VMware vSphere 5.5 和 6.0 集群的存储后端。在我的 VMware 体验中,我主要使用 NFS 数据存储(Solaris ZFS、Isilon、VNX、Linux ZFS),并且可能会引入Nimble iSCSI 阵列进入环境,以及可能Tegile (ZFS) 混合阵列。
当前的存储解决方案是 Nexenta ZFS 和基于 Linux ZFS 的阵列,它们为 vSphere 主机提供 NFS 挂载。网络连接通过存储头上的 2 x 10GbE LACP 中继和每个 ESXi 主机上的 2 x 10GbE 提供。交换机是双Arista 7050S-52配置为机架顶部单元MLAG 对等体。
在 vSphere 方面,我使用在 2 x 10GbE 上行链路上配置了 LACP 绑定的 vSphere 分布式交换机 (vDS),并且网络 I/O 控制 (NIOC)为 VM 端口组、NFS、vMotion 和管理流量分配份额。
这种解决方案和设计方法多年来一直效果很好,但添加 iSCSI 块存储对我来说是一个巨大的转变。在可预见的未来,我仍然需要保留 NFS 基础设施。
我想了解如何在不改变物理设计的情况下将 iSCSI 集成到此环境中。ToR 交换机上的 MLAG 对我来说非常重要。
- 对于基于 NFS 的存储,LACP 是提供路径冗余的普遍接受的方法。
- 对于 iSCSI,LACP 通常不被认可,而 MPIO 多路径设计是推荐的方法。
- 我到处都使用 10GbE,并希望保留到每台服务器的简单双端口链路。这是为了简化布线和设计。
鉴于上述情况,我如何才能充分利用 iSCSI 解决方案?
- 配置通过 LACP 的 iSCSI?
- 在 vDS 上创建 VMkernel iSCSI 适配器并尝试将它们绑定到单独的上行链路以实现某种变异的 MPIO?
- 添加更多网络适配器?
答案1
我不建议通过 LACP 运行 iSCSI,因为它与基本链路冗余相比确实没有任何好处。
使用软件 iSCSI HBA 在 vDS 上为 iSCSI 创建 VMkernel 交换机正是您应该做的。这将为您提供真正的 MPIO。这篇博客文章似乎与您尝试做的事情有些相关,忽略了从标准交换机迁移的需要:https://itvlab.wordpress.com/2015/02/14/how-to-migrate-iscsi-storage-from-a-standard-switch-to-a-distributed-switch/
如果您已经有两个用于 iSCSI 的网络适配器,则无需添加更多网络适配器。不过,我建议您在 iSCSI 网络上启用巨型帧 (MTU 9000)。必须在网络的所有级别(例如 VMkernel、vDS、物理交换机和 SAN 设备)上进行设置。