我在 Ubuntu 14.4 上运行 Corosync + Pacemaker。我设置了两个节点,每个节点有两个 VIP,当我在一个节点上关闭 Pacemaker 时,VIP做去另一个地方,但ifdown eth1
在我手动运行ifup eth1
该节点(VIP 在 eth1 上)之前,实际上没有流量通过系统。对于两个节点都是如此。
我可以看到 VIP做过使用 可以正常传输ifconfig
。但在运行时bmon
我发现没有流量通过,直到我运行ifdown
/ ifup
。
crm 配置显示:
node $id="6" node1
node $id="3" node2
primitive VIP_3 ocf:heartbeat:IPaddr2 \
params ip="10.0.1.112" nic="eth1" iflabel="3" \
op monitor interval="10s" on-fail="restart" \
op start interval="0" timeout="1min" \
op stop interval="0" timeout="30s"
primitive VIP_4 ocf:heartbeat:IPaddr2 \
params ip="10.0.1.111" nic="eth1" iflabel="4" \
op monitor interval="10s" on-fail="restart" \
op start interval="0" timeout="1min" \
op stop interval="0" timeout="30s"
property $id="cib-bootstrap-options" \
dc-version="1.1.10-42f2063" \
cluster-infrastructure="corosync" \
no-quorum-policy="ignore" \
stonith-enabled="false"
crm_mon-1:
Last updated: Mon Feb 16 16:16:42 2015
Last change: Mon Feb 16 15:43:30 2015 via crmd on node1
Stack: corosync
Current DC: node1 (6) - partition with quorum
Version: 1.1.10-42f2063
2 Nodes configured
2 Resources configured
Online: [ node1 node2 ]
VIP_4 (ocf::heartbeat:IPaddr2): Started node1
VIP_3 (ocf::heartbeat:IPaddr2): Started node1
ifconfig(在节点 1 上):
eth0 Link encap:Ethernet HWaddr 00:0c:29:b2:19:ba
inet addr:10.0.0.192 Bcast:10.0.0.255 Mask:255.255.255.0
inet6 addr: fe80::20c:29ff:feb2:19ba/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:253948 errors:0 dropped:73 overruns:0 frame:0
TX packets:116222 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:95400133 (95.4 MB) TX bytes:20760101 (20.7 MB)
eth1 Link encap:Ethernet HWaddr 00:0c:29:b2:19:c4
inet6 addr: fe80::20c:29ff:feb2:19c4/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:24763724 errors:0 dropped:19558 overruns:0 frame:0
TX packets:23253310 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:15916162148 (15.9 GB) TX bytes:15816322712 (15.8 GB)
eth1:3 Link encap:Ethernet HWaddr 00:0c:29:b2:19:c4
inet addr:10.0.1.112 Bcast:10.0.1.240 Mask:255.255.255.255
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
eth1:4 Link encap:Ethernet HWaddr 00:0c:29:b2:19:c4
inet addr:10.0.1.111 Bcast:10.0.1.239 Mask:255.255.255.255
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:62428 errors:0 dropped:0 overruns:0 frame:0
TX packets:62428 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:8020634 (8.0 MB) TX bytes:8020634 (8.0 MB)
在 /etc/网络/接口:
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet static
address 10.0.0.192
netmask 255.255.255.0
gateway 10.0.0.138
dns-nameservers 8.8.8.8 8.8.4.4
auto eth1
iface eth1 inet manual
post-up ip route add 10.0.1.0/24 dev eth1 table 11
post-up ip rule add from 10.0.1.0/24 table 11
post-up ip rule add to 10.0.1.0/24 table 11
pre-down ip rule delete table 11
pre-down ip rule delete table 11
pre-down ip route flush table 11
知道我做错了什么吗?我希望在 Pacemaker 启动 IP 地址后,流量将开始流经它们,而无需运行ifdown eth1
和ifup eth1
。
谢谢!
答案1
我认为这是一个 ARP 缓存问题。您的“前一个”主机保留了活动节点的 MAC 地址与 IP 地址的 ARP 条目。
您有 3 个选择:
- 刷新每个之前与 VIP 通信过的客户端上的 arp 缓存
- 创建 eth1 的新子接口,并为两个服务器配置相同的 MAC 地址,但确保在任何给定时间只有一个接口处于活动状态
- 向受影响的网络广播 arp 请求 - 客户端应该使用 VIP 的新 MAC:IP 条目更新 arp 表。
供参考,请参阅如何VRRP 协议负责VIP转移。