具有单主 DRBD 的 HA NFS

具有单主 DRBD 的 HA NFS

2 台服务器上高可用性 nfs 背后的基本流程是什么?假设我使用 heartbeat 在 2 台服务器之间故障转移浮动 IP。然后我有一个第三方服务器,它基于该 IP 安装 nfs 共享。这个想法是,我可以操作文件,然后如果发生故障转移,nfs 将保持活动状态,并且它将暂时不可用,因为 nfs 和 IP 已切换到另一台服务器。

但是,我对工作流程感到疑惑。目前,通过手动故障转移,我可以将 node1 设置为 drbd 主节点,并将 drbd 挂载为具有浮动 IP 的 nfs 导出。然后,如果我想进行故障转移,我可以卸载 drbd 驱动器,将服务器设置为辅助节点,然后将 node2 设置为主节点,挂载 drbd nfs,然后新 IP 就会出现在 node2 上。

这是正确的想法吗?如果我尝试正常卸载 nfs/drbd 挂载,它可能会失败,因为 nfs 仍在访问它(也就是说,如果第三方服务器正在访问共享)。

有没有一种方法可以实现与手动故障转移类似的过程但可以快速进行故障转移?

答案1

按照您的方法,您需要记住在执行故障转移时停止 nfs 服务,因此步骤应如下:

  1. 停止节点2上的NFS服务
  2. 卸载NFS 驱动器在节点2上
  3. 将服务 IP 地址从 node2 浮动到 node1
  4. 安装NFS 驱动器在节点1上
  5. 在node1上启动NFS服务

你还有其他选择,例如你可以使用集群文件系统(如 RedHat 的政府金融服务局),这样你就可以安装NFS 驱动器在两台服务器上。然后,在发生故障时,您是否只想从一个节点移动到另一个节点,或者甚至以某种方式平衡它们以使它们处于主动/主动状态,则取决于您。

相关内容