带有 FCoE 的 10GbE 结合 SAN 和 LAN 流量是一个好的解决方案吗?

带有 FCoE 的 10GbE 结合 SAN 和 LAN 流量是一个好的解决方案吗?

我正在从头开始构建一个小型数据中心,并且正在考虑 10GbE。我正在寻求有关此决定的一些建议。

我将 Infiniband、FC、10GbE 和 LACP 与 GigE 进行了比较,最终 10GbE 似乎是目前最好的解决方案。

谈到数据中心:它将有一个或两个存储(两个用于故障转移场景),以及三台运行某些 Hypervisor 的 1U 机器(XenServer 是我的最爱)。VM 将位于存储中,因此 Hypervisor 将从存储启动,或者我将在 1U 机器中放置一些小型 SSD 以加载 Hypervisor。

所以,这里的问题是:我对要购买什么来构建网络有些困惑。我见过一些昂贵的交换机,比如具有许多功能的 Cisco Nexus 5000/7000,但我不知道我是否真的需要这些。

我没有 FC,所以购买没有“融合网络”技术的单个 10GbE 交换机安全吗?或者我应该购买其中之一来运行 FCoE?

另一个问题:10GbE 上的 iSCSI 是否比 FCoE 更好?(我认为 FCoE 更好,因为我们不使用 FCoE 中的 IP 堆栈)。

提前致谢,我真的很欣赏这里的一些意见。

答案1

我同意 Tom 的观点!与 10 GbE 相比,IB(即使是古老的)更便宜、更快。

人们从基本上廉价的装备中得到了一些好的数据:

http://forums.servethehome.com/networking/1758-$67-ddr-infiniband-windows-1-920mb-s-43k-iops.html

问题是 TCP-over-IB 很糟糕(降低性能并增加巨大的延迟)并且本机 IB 支持非常有限。Windows Server 2012 R2 的 SMB Direct 很棒(当它工作时)。

答案2

在选择技术时,应根据您对需求/预算/专业知识的评估做出决定。显然,您的选择在很大程度上取决于您拥有或将要购买的存储硬件类型以及您的网络基础设施。传统上,SAN 由于速度快而使用光纤通道,但随着 10GbE 的出现,以太网已成为有力的竞争者。根据数据中心的利用率,您甚至可以使用 1GbE 和 MPIO,并能够在以后进行扩展。大多数主要供应商都会为您提供 iSCSI、FCoE 和 FC 产品之间的选择,在这些产品中进行选择应基于您当前(或期望)的基础设施,并考虑到您的员工专业知识。

我无法评论 Infiniband 的使用情况,因为我自己从未使用过它,除了它的使用不如其他技术普遍,并且相应地可供选择的供应商也较少。附带风险是找到能够支持不太常见设备的员工。

就我个人而言,如果您(和您的员工)没有光纤通道使用经验(也没有现有的基础设施),我建议您选择 iSCSI 产品,因为您的学习曲线(以及实施成本)会低得多。大多数人都忘记了硬件成本与劳动力相比微不足道。我在人员成本上的花费是硬件预算的十倍,因此如果某种硬件稍微贵一点,但我的员工很了解(或者我可以更容易地找到人来操作它),那么它就是显而易见的选择。当然,除非你正在寻找新的学习机会。:P

答案3

如果您拥有现有的 FC 基础设施,并且需要将 FC LUN 提供给新服务器,而这些服务器没有 FC HBA(或者您的 FC 交换机上授权的 FC 端口用完了 - 情况是一样的),那么 FCoE 就很有意义。因此,您采用 10 GbE 并运行 FCoE 以降低 FC 设备的成本。从头开始构建 FCoE 是没有意义的,在 10 GbE 上运行 iSCSI(或者如果您处于“黑暗面”,则使用 RDMA 的 SMB Direct)并很高兴。使用最新且不错的多 GHz 和多核 CPU,并且 TCP 和 iSCSI 至少部分卸载到 NIC ASIC,那么通过 TCP 进行存储和通过原始以太网进行存储之间没有区别。祝你好运,我的朋友!

答案4

为什么?

鉴于价格高、带宽低,我始终更喜欢 Infiniband 而不是 10g。再加上基于 1g 的出站链路 - 除非您的上行链路带宽超过 1g。

由于其他限制,我在一些服务器上使用 10g(大多数 - 几乎所有都是 1g,我们用作主干网的 Netgear TXS 752 有 4x10g spf+),网卡的价格因素 - 哎哟。与速度快得多的 Infiniband 相比。

相关内容