为 Xen 创建基本的、冗余的千兆以太网或 IB 存储网络?

为 Xen 创建基本的、冗余的千兆以太网或 IB 存储网络?

由于预算有限,我想将我的 4 台 xen 服务器移至网络存储 - NFS 或 iSCSI,具体选择将取决于测试时的性能(我们需要良好的吞吐量,并且必须通过链路和交换机故障测试)。完成此操作后,我们可能会在某个时候添加另外几台 xen 服务器。

我不太了解存储网络的设计和操作,因此非常希望有经验的人能给我一些提示。预算约为 3,800 美元(不包括存储设备)。我目前正在考虑以下几种保持预算的方法:

1) 选择二手无限带宽硬件并力求达到 10gb 的性能。

2) 坚持使用千兆以太网,并购买一些新交换机(思科或 Procurve)来创建仅用于存储的以太网 LAN。稍后升级到 10gigE,但尽量使用支持该功能的硬件以降低升级成本。

我见过价格合理的二手、有保修的无限带宽交换机(大概是因为大公司正在向 10gbit 以太网靠拢?),而且廉价 10gb 的承诺很有吸引力。

我对 IB 一无所知,所以问题如下:

我是否可以购买 2 个交换机并在 xen 和存储节点中安装多个 HBA 以获得冗余和更高的性能,而无需复杂性或昂贵的管理软件成本?如果可以,您能举几个例子吗?

无论如何,NFS 和 iSCSI 的工作方式是否都一样?

IB 是否是一个明智的选择,或者我是否可以/是否应该在相同的预算下使用以太网或 FC - 但是我不想在未来的升级中陷入困境。

对于存储,我可能会使用 nexentastor 构建一个存储服务器,以便以后可以添加更多磁盘、SSD 并添加另一台服务器以在存储级别提供故障转移选项。HP LeftHand 入门级 SAN 也在考虑之中。

提前致谢。

答案1

如果可能的话,使用 Infiniband。它优于 10g 以太网,因为它具有较小的保证延迟。对于短距离来说,它是一种更好的技术 - 并且可以分解为实际网络,以处理远距离以太网。

至于我被逼入绝境——你确实被逼入绝境了。绝境是“服务器端集群高性能网络”。问题在于你是否能忍受它——我个人认为这是一个不错的绝境。

Infiniband 的最大优势不是更高的带宽,而是极低的延迟。这对响应/请求吞吐量很有好处。以太网在延迟方面要差很多。

无论如何,NFS 和 iSCSI 的工作方式是否都一样?

如果您不得不问这个问题,您应该聘请某人进行设置。这是基本的初学者知识。iSCSI 是通过网络的 SCSI。每个 IT 技术人员都应该知道什么是 SCSI(一种处理硬盘通信的协议),因此它可以处理直接块读写访问。

任何安装过磁盘的人都知道,你必须对磁盘进行分区和格式化。然后 NFS 就建立在此之上(你应该知道)。

所以,它们并不相同,并且存在显著的差异。

至于哪个更好 - 这取决于 XEN 及其建议。请注意,如果您计划运行共享 ISCSI(即一个 ISCSI 目标,即模拟磁盘,在多台计算机之间共享) - 您只能这样做,前提是您运行它的文件系统支持这一点。大多数文件系统不支持 - 驱动程序将假定它拥有该磁盘,并且没有其他人进行写入。让多个计算机连接到一个 ISCSI 目标并使用不可共享的标准文件系统是一场倒计时运行的灾难 - 如果您进行任何写入,您很幸运能够在 5 分钟内没有数据损坏。

答案2

我只能回答部分问题。iSCSI 和 NFS 是完全不同的两个东西。NFS 是一个共享文件系统,其基本构建块是文件。而另一端的 iSCSI 是一个联网块设备,它以块为单位进行访问,就像本地磁盘一样。在它上面,您将添加一个文件系统。通常,您应该将 iSCSI 视为 SCSI(或 FC),但它是通过网络进行的,即一个 iSCSI 磁盘属于一台服务器。您可以共享 iSCSI 设备(就像共享 FC 设备一样),但您必须使用集群感知文件系统,如 Oracle 的 ocfs2 或 RedHat 的 gfs(不过,我不知道 Windows 的情况)。

如果您计划共享数据,那么 NFS 可能是最好的选择,如果您想要拥有类似数据库的东西,那么 iSCSI 可能是更好的选择。

希望这可以帮助。

相关内容