集群中的 LVM - 需要建议

集群中的 LVM - 需要建议

我正在尝试配置具有共享存储的 2 节点集群,但配置可能有点不寻常。描述如下:

  1. 两个节点都可以访问具有多个驱动器的共享存储。对于集群节点,它们显示为本地节点(SAN 类型的连接)。
  2. 节点 A 将使用其中一半的驱动器组装成软件 RAID(我们将其命名为 SW_RAID1)。在此软件 RAID 之上,将有 LVM(例如 VG-1)。
    节点 B 也一样,只不过节点 B 使用以下方式创建自己的软件 RAID(SW-RAID2)其他硬盘数量比节点 A 多。
  3. 一旦发生故障,剩余节点应接管所有资源(SW-RAID1 和 2 分别与 VG-1 和 VG-2)。

下图说明了该设置。

集群拓扑

问题是:我可以使用普通 LVM 进行这种设置吗?还是必须使用集群 LVM?

在我看来,我可以使用普通的 LVM,因为每个卷组都会在一个实体(/dev/md*)上重新播种,而这个实体永远不会同时在两个节点上可用(由集群确保,因为它管理上述软件 RAID),所以从 LVM 的角度来看,它甚至不是 A/P。

我说得对吗?回答时,请尽可能给出一些理由。谢谢!

答案1

如果我没看错的话,我想你正在寻找DRBD。这将透明地保持两个服务器的磁盘同步,从而允许一个服务器故障转移到另一个服务器而不会丢失数据。

答案2

理论上可以,但我不会。在切换之间干净地卸载时,在两个服务器之间共享卷应该是相当安全的。

但你所做的并不能让你彻底卸载。这就是你应该使用集群文件系统的原因:它旨在处理服务器消失而不会破坏文件系统。

只要每台服务器不同时访问相同的文件,性能就不会存在明显差异。

相关内容