我现在需要开始规划更换我们的主要 ESX 集群。实施时间大约在 12 月,但突然间似乎并不遥远。
现在我有一对 ESX 主机,单个四核 Dell PE2950,每台都有 24GB RAM,配备双 FC HBA,通过一对交换机连接到 Dell/EMC AX4。
我现在有大约 17TB 的原始存储空间,由于 AX4 采用的是相当基础的磁盘池/虚拟磁盘工作方式,因此存在一些浪费,但与任何企业一样,我们将继续需要更多的存储空间。
我们拥有一系列的 VM,包括主文件服务器、Microsoft SQL Server、Exchange Server 以及许多用于特定角色、WSUS、防病毒、打印等的小型 VM。
我们是一个大型站点,到处都有光纤,而我们直接的“异地”位置是几英里外的另一栋建筑,两者之间有 10gbps 光纤链路。
我希望最终实现的是“智能” SAN 级别快照以及光纤两端单元之间(所有单元或选定的 LUN)的复制。
我不需要即时故障转移,我想要的只是如果一个房间被摧毁了,我可以在合理的(非 SLA)时间内在另一个位置启动并运行东西(不一定是全部)。
我真的很感激关于用什么来替换主集群/SAN的建议。
目前我的主要竞争对手是 Equallogic 和 HP Lefthand P4000。
我本来想添加一条评论但似乎没有足够的输入,所以......
我们使用 Exchange 和 SQL,但使用率很低。目前我们使用 Exchange 2003,但几个月后我希望我们能使用 Exchange 2010,这样存储 IO 要求应该会下降很多。
目前我们在 AX4 中混合使用了 7.2k SATA 和 10k 和 15k SAS。AX$ 是我们的第一个 SAN,也是我们第一次使用 ESX,老实说,我怀疑我在磁盘规格方面有点过分了。
我们最繁忙的时期是我们的备份窗口,我一直在做一些测量,虽然很粗略,但似乎我们看到的平均值约为 1400 IOPS - 正如您所说,主要的限制可能是我们文件服务器上的 NIC,它是一个 1gbps vNIC(文件服务器是一个 VM)。
我没有想过在交换机 GUI 中寻找性能指标,但我会看看我能找到什么(它们是 Brocade 200E,没有重新命名或什么的)。
我确实需要深入研究不同产品的 MPIO 驱动程序是如何工作的。我对 EQL 的理解是,它将打开多个连接,即使是同一个 iSCSI LUN - 不确定 LeftHand 是否可以做到这一点,或者“1 LUN = 1gbps 最大吞吐量”?
当时间到来时(大约 12 月),我们显然会采用最新的稳定/受支持的 vSphere 版本。
至于 10GigE,我确实很喜欢这个说法,然而当你考虑到冗余度时,我不禁认为它会变得非常昂贵,而这里的部分问题是,虽然我们并不想省钱,但我的花费确实有一个限度。
答案1
将 Exchange 和 MSSQL 放入 ESX 意味着您的集群中有一些重要的存储用户,并且存储需要跟上。您使用的是带光纤的 AX4,显然可以跟上,但您没有提到您的驱动器是什么(SAS、SATA、7.2K RPM、15K RPM)或您有多少个驱动器。
我要仔细研究的一个步骤是存储设备的峰值传输速率。光纤通道交换机应该具备这种能力。上次我查看时,戴尔 FC 交换机是重新包装的 Brocade 单元,我知道 Brocade 在其基于 Java 的 GUI 中有一个“性能监视器”。如果您的峰值 IO(可能是在备份期间)低于 1Gb,那么基于 iSCSI 的系统就没问题。如果峰值确实超过 1Gb,那么您需要注意将最大的 I/O 生成器物理安装在不同的 iSCSI 单元中。FC 可以以 4Gb 的速度运行,而 GigE 是 1Gb。
了解 ESX 节点生成了多少存储 I/O 是找到最合适的基于以太网的解决方案的关键。如果峰值 I/O 超过 1Gb,那么您可能需要使用 NIC 绑定来保持吞吐量,但请记住,使用 NIC 绑定时 IP 对之间的最大带宽仍然是 GigE。10GigE 可以解决这个问题,但我敢肯定这些卡在服务器空间中还不存在,而且我非常肯定它们在 LeftHand 中还不存在(尽管它即将推出!)。确保您的大型 I/O 消费者(可能是备份期间的数据库和 Exchange)位于与不同 Equilogic/LeftHand 节点通信的不同节点上,这样就没问题了。
至于 Equilogic 与 LeftHand,当我们 12 个月前全线出击时,LeftHand 确实是一个引人注目的潜在客户。我们在宣布合并前大约一周就听过 Equilogic 的演示,因此我们对这两条产品线都非常熟悉。我们认为 LeftHand 产品在技术上更胜一筹,并且能够很好地处理虚拟存储网络。内置复制(两者都可以做到)的想法足以让我们在期待中露出笑容。