当节点出现故障时,是否可以阻止 pcs/dlm/crm 隔离该节点?
我使用集群只是为了能够构建 GFS2 存储,并且我有自己的避免脑裂的方法。所以我不需要像 fence 和 dlm-locks 这样的东西。
我尝试在 CentOS7 中配置 on-fail 操作,方法如下:使用pcs resource update dlm/clvmd/gfs2_res op monitor onfail=ignore
并编辑文件/etc/corosync/dlm_cfg
,编辑on-fail="ignore"
并重启所有节点。重启后,我可以从中检查pcs cluster cib
,所有“fence”都已变为“ignore”
但是,当我在一个节点中终止 corosync 时,另一个节点仍会尝试隔离它,如消息日志中所示。
3 月 5 日 10:37:10 node0 stonith-ng[1733]: 通知:remote_op_done:node3 执行的重新启动操作[电子邮件保护]:没有这样的设备
3 月 5 日 10:37:10 node0 crmd[1739]:通知:tengine_stonith_notify:对等节点 3 未被节点 3 终止(重新启动) 对于节点 3:没有这样的设备(ref=a7be5018-4894-4de2-9273-8867d034d7af)由客户端 stonith_admin.controld.24862
我只是想知道是否有办法完全避开栅栏?它给我的系统带来了很多麻烦。