尝试 sVmotion 迁移时 NFS 数据存储断开连接

尝试 sVmotion 迁移时 NFS 数据存储断开连接

我有一台 EMC VNXe 3100,并且我已测试了从它到我的主机的 iSCSI 和 NFS 连接,NFS 似乎是两者中更好的。所以我设置了它,在我用 1 台虚拟机进行的测试中,一切似乎都运行良好。现在我试图将它投入生产,在将 2 台虚拟机迁移到该单元后,它停止工作了。现在,当我尝试将任何其他虚拟机迁移到 VNXe 3100 时,数据存储区会与执行迁移的 ESXi 5.5 主机断开连接。当我取消迁移(挂在 23% 处)并让它超时时,它将重新连接。我确实在主机上安装了 EMC VAAI NAS 插件,并且 VNXe 3100 NFS 数据存储区报告硬件加速正在运行。在我的故障排除中,我还将每台主机上的 NFS 队列深度更改为 64。

有任何想法吗?

答案1

这个答案可能会对将来的某人有所帮助:

我在基础架构中也遇到过类似的问题,即从本地数据存储到 NetApp 上的 NFS 共享的 SVMotion(仅存储 vMotion)。数据存储已成功安装在所有 ESXi 主机上,但任何 SVMotion 尝试均失败。

我的实际原因是交换机配置中的 MTU 值有误。将 NetApp 的 LIF 和 ESXi vmkernel 适配器都配置为使用 MTU 9000 进行传输,但我没有在交换机上正确配置该值。

您可以使用以下方法快速验证根本原因vmkping

# Check default MTU 1500 (or lower):
vmkping -I vmk<X> -s 1500 <YOUR_NFS_SERVER_IP_ADDRESS>
PING <IPADDR> (<IPADDR>): 1500 data bytes
1508 bytes from <IPADDR>: icmp_seq=0 ttl=64 time=0.356 ms
1508 bytes from <IPADDR>: icmp_seq=1 ttl=64 time=0.264 ms
1508 bytes from <IPADDR>: icmp_seq=2 ttl=64 time=0.246 ms

--- <IPADDR> ping statistics ---
3 packets transmitted, 3 packets received, 0% packet loss
round-trip min/avg/max = 0.246/0.289/0.356 ms

然后使用巨型帧检查回显答复:

vmkping -I vmk<X> -s 9000 <YOUR_NFS_SERVER_IP_ADDRESS>
PING <IPADDR> (<IPADDR>): 9000 data bytes

--- <IPADDR> ping statistics ---
3 packets transmitted, 0 packets received, 100% packet loss

在这种情况下,必须增加第 2 层交换机上的 MTU。

相关内容