粗略估计使用 VMware vSphere 时 SAN-via-fibre 相对于 san-via-iSCSI 的速度优势

粗略估计使用 VMware vSphere 时 SAN-via-fibre 相对于 san-via-iSCSI 的速度优势

我们正在为 VMware VSphere 设置两台虚拟化服务器(DELL R710、双四核 Xeon CPU,2.3 Ghz、48 GB RAM),并在 SAN 上存储(DELL Powervault MD3000i、10x 500 GB SAS 硬盘、RAID 5),这些服务器将通过 iSCSI 连接到 Gbit 以太网交换机(DELL Powerconnect 5424,他们称之为“iSCSI 优化”)。

有人能估算一下基于光纤通道的解决方案会快多少(或“感觉”更好)吗?我不是指名义上的速度优势,而是指虚拟机的有效运行速度会快多少?

我们说的是两倍、五倍、十倍的速度吗?它能与价格相符吗?

PS:我们说的不是使用率很高的数据库服务器或 Exchange 服务器。大多数虚拟化服务器的平均 CPU 负载低于 3-5%。

答案1

这里有很多决定性能的因素。你可以考虑的一个调整是设置巨型帧。Scott Lowe 最近有一篇博客文章这里这展示了他为实现这一目标所做的一些工作。

您提到客户机将运行低 CPU 负载 - 这些始终是虚拟化的绝佳候选者 - 但 FiberChannel 和 iSCSI 之间的差异还没有真正发挥作用。

如果您的虚拟机客户机要运行存储密集型操作,那么您必须考虑到从虚拟机主机到存储阵列的读/写操作传输速度可能会成为您的瓶颈。

由于典型的 iSCSI 传输速率为 1Gbps(通过以太网),而 FC 通常在 2-4Gbps 左右(取决于您愿意花多少钱),那么您可以说 FC 的传输速度大约是其两倍。

还有新的 10Gig-E 交换机,但您的 Powervault 和 Powerconnect 尚不支持它。

然而,这并不意味着机器会运行得更快,因为如果它们运行低 I/O 的应用程序,它们实际上可能以相同的速度运行。

关于哪个更好的争论永无止境,这基本上取决于你自己的评价和结果。

我们部署了多个基于 FC 的迷你云和基于 iSCSI 的迷你云,它们都运行良好。我们发现瓶颈在于存储阵列级别,而不是 1Gb 以太网上的 iSCSI 流量。

答案2

与传输速度相比,您更有可能在主轴数量上遇到瓶颈。

也就是说,FC 的原始速度确实比 iSCSI 快,但如果您(假设)尝试在 6 个主轴(物理磁盘)上运行 200 个虚拟机,那么您将看到比通过 iSCSI 在 24 个主轴上运行 200 个虚拟机更差的性能。在我们几乎空闲的实验室环境中,我们以每台虚拟机大约 2 个 NFS 操作(240 个 vs 117 个)的速度运行,因此这可以让您了解您将拥有多少 IO。

我认为你不会看到基于传输的太大差异,除非你知道你有非常高的连续 IO(大量仪器数据日志流?视频存档?老实说,我不知道现实世界的场景可能是这样的)。

我真的不认为你会注意到传输,除非磁盘的 IOPS 大大超过你的负载。我会采用其他标准来做出决定(易于管理、成本等)。

上次添加存储时,我们使用了 NetApp 上的 NFS。

答案3

这是一个非常明显的变化。不过说实话,当我上一家公司推出基于 VMware 的共享主机时,我们正从基于 Linux 服务器的 iSCSI(假 iscsi)转向光纤,也就是从测试环境转向生产环境。我们的 VMware 代表表示,当单个 ESX 主机上的多个 VM 需要访问共享存储时,光纤的开销要小得多。我注意到 Win2k3 VM 实例的一般使用性能翻了一番,但我使用 VM 上的 hdtune 测试的磁盘 IO 比我们的 Dell 2850 的标准 IO(如果我没记错的话,在 perc 4 上的 RAID 5 中的 3 x 73GB)更快。当然,我们在每个 ESX 主机上运行了大约 5 个使用率较低的 VM,因为我们正在接受这方面的培训。

您的 VMware 代表应该有大量关于 Fiber 与 iscsi 的文档,包括一些总体基准,或者至少是现实世界的实施故事/比较。我们的代表确实有。

答案4

我们有基于 FC 的 SAN,速度为 2Gbps,并且测试了 4Gbps HBA,没有看到任何性能差异。我们的瓶颈始终在于驱动器速度,此外,即使您拥有基于 FC 的 8Gbps SAN,如果阵列中的驱动器是 SATA 或甚至是 10K 驱动器,您仍然看不到任何性能提升,这还取决于 RAID 类型和阵列大小。Mike 还因使用“云”一词而减一分。

相关内容