直接连接Centos7(负载均衡)到QNAP(主干)

直接连接Centos7(负载均衡)到QNAP(主干)

故事是这样的:我有一台带有多个 NIC(eno1、2、3、4 等)的服务器(x3650M5)。操作系统是CentOS7。 Eno1 关闭,eno2 连接到本地网络 (10.10.10.11/24)。我想通过 eno3 和 eno4 将服务器连接到 QNAP ts453 NAS。 QNAP NAS 还有 4 个网卡:eth0、1、2、3。 Eth0面向本地网络(10.10.10.12/24)并且工作。服务器和NAS直接连接eno3<->eth2和eno4<->eth3。

如果我使用单个连接(例如 eno3 到 eth2)并将地址设置为例如。服务器上 eno3 上的 10.10.11.20/24 和 NAS 上 eth2 上的 10.10.11.21,连接正常(ping、LUN 映射等)。

当我尝试使用 eno3 和 4 的组合(最好在 Centos 上设置负载平衡模式)并在 NAS(eth2 和 3 平衡-tldb 模式)上分别与服务器上的 10.10.11.20/24 和 NAS 上的 10.10.11.21/24 进行绑定时,连接不起作用。

当我在服务器上使用 NetworkManager 时,有时连接确实有效,但 ping 持续了整整 9 个数据包,然后就死掉了。所以我决定摆脱 NetworkManager(停止&禁用)并转向编辑 ifcfg 文件:

ifcfg-team0:

DEVICE=team0
DEVICETYPE=Team
TEAM_CONFIG="{\"runner\": {\"name\": \"loadbalance\"}}"
BOOTPROTO=none
IPADDR=10.10.11.20
PREFIX=24
NAME=team0
ONBOOT=yes
NM_CONTROLLED=no

Slaves:
ifcfg-team0-eno3:

DEVICE=eno3
DEVICETYPE=TeamPort
TEAM_MASTER=team0
NAME=team0-eno3
ONBOOT=yes
NM_CONTROLLED=no

ifcfg-team0-eno4:

DEVICE=eno4
DEVICETYPE=TeamPort
TEAM_MASTER=team0
NAME=team0-eno4
ONBOOT=yes
NM_CONTROLLED=no

teamdctl team0 state:

setup:
  runner: loadbalance
ports:
  eno3
    link watches:
      link summary: up
      instance[link_watch_0]:
        name: ethtool
        link: up
        down count: 0
  eno4
    link watches:
      link summary: up
      instance[link_watch_0]:
        name: ethtool
        link: up
        down count: 0

ifconfig team0:

team0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 10.10.11.20  netmask 255.255.255.0  broadcast 10.10.11.255
        inet6 fe80::a94:efff:fe58:70f0  prefixlen 64  scopeid 0x20<link>
        ether 08:94:ef:58:70:f0  txqueuelen 1000  (Ethernet)
        RX packets 7  bytes 707 (707.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 131  bytes 8329 (8.1 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

最后route -n

Kernel IP routing table

Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         10.10.10.138    0.0.0.0         UG    0      0        0 eno2
10.10.10.0      0.0.0.0         255.255.255.0   U     0      0        0 eno2
10.10.11.0      0.0.0.0         255.255.255.0   U     0      0        0 team0
169.254.0.0     0.0.0.0         255.255.0.0     U     1002   0        0 eno1
169.254.0.0     0.0.0.0         255.255.0.0     U     1003   0        0 eno2
169.254.0.0     0.0.0.0         255.255.0.0     U     1004   0        0 ens4f0
169.254.0.0     0.0.0.0         255.255.0.0     U     1005   0        0 eno3
169.254.0.0     0.0.0.0         255.255.0.0     U     1006   0        0 eno4
169.254.0.0     0.0.0.0         255.255.0.0     U     1007   0        0 ens4f1
169.254.0.0     0.0.0.0         255.255.0.0     U     1008   0        0 ens4f2
169.254.0.0     0.0.0.0         255.255.0.0     U     1009   0        0 ens4f3
169.254.0.0     0.0.0.0         255.255.0.0     U     1011   0        0 team0
192.168.122.0   0.0.0.0         255.255.255.0   U     0      0        0 virbr0

在 NAS 上 ifconfig::

bond0     Link encap:Ethernet  HWaddr 24:5E:BE:26:6F:60
          inet addr:10.10.11.21  Bcast:10.10.11.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1
          RX packets:1105 errors:0 dropped:574 overruns:0 frame:0
          TX packets:105005 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:103142 (100.7 KiB)  TX bytes:6566084 (6.2 MiB)

eth0      Link encap:Ethernet  HWaddr 24:5E:BE:26:6F:5E
          inet addr:10.10.10.12  Bcast:10.10.10.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:503686 errors:0 dropped:77 overruns:0 frame:0
          TX packets:370782 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:83802168 (79.9 MiB)  TX bytes:248700488 (237.1 MiB)
          Memory:91400000-9141ffff

eth1      Link encap:Ethernet  HWaddr 24:5E:BE:26:6F:5F
          UP BROADCAST MULTICAST  MTU:1500  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)
          Memory:91300000-9131ffff

eth2      Link encap:Ethernet  HWaddr 24:5E:BE:26:6F:60
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:3361082 errors:0 dropped:34 overruns:0 frame:0
          TX packets:380048 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:5024263161 (4.6 GiB)  TX bytes:45039739 (42.9 MiB)
          Memory:91200000-9121ffff

eth3      Link encap:Ethernet  HWaddr 24:5E:BE:26:6F:61
          UP BROADCAST NOTRAILERS RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:776 errors:0 dropped:461 overruns:0 frame:0
          TX packets:54162 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:73093 (71.3 KiB)  TX bytes:3934987 (3.7 MiB)
          Memory:91100000-9111ffff

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          UP LOOPBACK RUNNING  MTU:65536  Metric:1
          RX packets:1238295 errors:0 dropped:0 overruns:0 frame:0
          TX packets:1238295 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:352816577 (336.4 MiB)  TX bytes:352816577 (336.4 MiB)

route -n:

Kernel IP routing table

Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         10.10.10.138    0.0.0.0         UG    0      0        0 eth0
10.10.10.0      0.0.0.0         255.255.255.0   U     0      0        0 eth0
10.10.11.0      0.0.0.0         255.255.255.0   U     0      0        0 bond0
127.0.0.0       0.0.0.0         255.0.0.0       U     0      0        0 lo

我应该在 ifcfg 中添加一些东西吗?我也尝试过 LACP (802.3ad) 和 Balance-alb 模式,但没有成功。

答案1

通过在连接服务器和NAS的cisco交换机上正确设置LACPI和vlan来解决。

相关内容