故事是这样的:我有一台带有多个 NIC(eno1、2、3、4 等)的服务器(x3650M5)。操作系统是CentOS7。 Eno1 关闭,eno2 连接到本地网络 (10.10.10.11/24)。我想通过 eno3 和 eno4 将服务器连接到 QNAP ts453 NAS。 QNAP NAS 还有 4 个网卡:eth0、1、2、3。 Eth0面向本地网络(10.10.10.12/24)并且工作。服务器和NAS直接连接eno3<->eth2和eno4<->eth3。
如果我使用单个连接(例如 eno3 到 eth2)并将地址设置为例如。服务器上 eno3 上的 10.10.11.20/24 和 NAS 上 eth2 上的 10.10.11.21,连接正常(ping、LUN 映射等)。
当我尝试使用 eno3 和 4 的组合(最好在 Centos 上设置负载平衡模式)并在 NAS(eth2 和 3 平衡-tldb 模式)上分别与服务器上的 10.10.11.20/24 和 NAS 上的 10.10.11.21/24 进行绑定时,连接不起作用。
当我在服务器上使用 NetworkManager 时,有时连接确实有效,但 ping 持续了整整 9 个数据包,然后就死掉了。所以我决定摆脱 NetworkManager(停止&禁用)并转向编辑 ifcfg 文件:
ifcfg-team0:
DEVICE=team0
DEVICETYPE=Team
TEAM_CONFIG="{\"runner\": {\"name\": \"loadbalance\"}}"
BOOTPROTO=none
IPADDR=10.10.11.20
PREFIX=24
NAME=team0
ONBOOT=yes
NM_CONTROLLED=no
Slaves:
ifcfg-team0-eno3:
DEVICE=eno3
DEVICETYPE=TeamPort
TEAM_MASTER=team0
NAME=team0-eno3
ONBOOT=yes
NM_CONTROLLED=no
ifcfg-team0-eno4:
DEVICE=eno4
DEVICETYPE=TeamPort
TEAM_MASTER=team0
NAME=team0-eno4
ONBOOT=yes
NM_CONTROLLED=no
teamdctl team0 state:
setup:
runner: loadbalance
ports:
eno3
link watches:
link summary: up
instance[link_watch_0]:
name: ethtool
link: up
down count: 0
eno4
link watches:
link summary: up
instance[link_watch_0]:
name: ethtool
link: up
down count: 0
ifconfig team0:
team0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 10.10.11.20 netmask 255.255.255.0 broadcast 10.10.11.255
inet6 fe80::a94:efff:fe58:70f0 prefixlen 64 scopeid 0x20<link>
ether 08:94:ef:58:70:f0 txqueuelen 1000 (Ethernet)
RX packets 7 bytes 707 (707.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 131 bytes 8329 (8.1 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
最后route -n
:
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 10.10.10.138 0.0.0.0 UG 0 0 0 eno2
10.10.10.0 0.0.0.0 255.255.255.0 U 0 0 0 eno2
10.10.11.0 0.0.0.0 255.255.255.0 U 0 0 0 team0
169.254.0.0 0.0.0.0 255.255.0.0 U 1002 0 0 eno1
169.254.0.0 0.0.0.0 255.255.0.0 U 1003 0 0 eno2
169.254.0.0 0.0.0.0 255.255.0.0 U 1004 0 0 ens4f0
169.254.0.0 0.0.0.0 255.255.0.0 U 1005 0 0 eno3
169.254.0.0 0.0.0.0 255.255.0.0 U 1006 0 0 eno4
169.254.0.0 0.0.0.0 255.255.0.0 U 1007 0 0 ens4f1
169.254.0.0 0.0.0.0 255.255.0.0 U 1008 0 0 ens4f2
169.254.0.0 0.0.0.0 255.255.0.0 U 1009 0 0 ens4f3
169.254.0.0 0.0.0.0 255.255.0.0 U 1011 0 0 team0
192.168.122.0 0.0.0.0 255.255.255.0 U 0 0 0 virbr0
在 NAS 上
ifconfig
::
bond0 Link encap:Ethernet HWaddr 24:5E:BE:26:6F:60
inet addr:10.10.11.21 Bcast:10.10.11.255 Mask:255.255.255.0
UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
RX packets:1105 errors:0 dropped:574 overruns:0 frame:0
TX packets:105005 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:103142 (100.7 KiB) TX bytes:6566084 (6.2 MiB)
eth0 Link encap:Ethernet HWaddr 24:5E:BE:26:6F:5E
inet addr:10.10.10.12 Bcast:10.10.10.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:503686 errors:0 dropped:77 overruns:0 frame:0
TX packets:370782 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:83802168 (79.9 MiB) TX bytes:248700488 (237.1 MiB)
Memory:91400000-9141ffff
eth1 Link encap:Ethernet HWaddr 24:5E:BE:26:6F:5F
UP BROADCAST MULTICAST MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
Memory:91300000-9131ffff
eth2 Link encap:Ethernet HWaddr 24:5E:BE:26:6F:60
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
RX packets:3361082 errors:0 dropped:34 overruns:0 frame:0
TX packets:380048 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:5024263161 (4.6 GiB) TX bytes:45039739 (42.9 MiB)
Memory:91200000-9121ffff
eth3 Link encap:Ethernet HWaddr 24:5E:BE:26:6F:61
UP BROADCAST NOTRAILERS RUNNING SLAVE MULTICAST MTU:1500 Metric:1
RX packets:776 errors:0 dropped:461 overruns:0 frame:0
TX packets:54162 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:73093 (71.3 KiB) TX bytes:3934987 (3.7 MiB)
Memory:91100000-9111ffff
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:1238295 errors:0 dropped:0 overruns:0 frame:0
TX packets:1238295 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:352816577 (336.4 MiB) TX bytes:352816577 (336.4 MiB)
route -n
:
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 10.10.10.138 0.0.0.0 UG 0 0 0 eth0
10.10.10.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
10.10.11.0 0.0.0.0 255.255.255.0 U 0 0 0 bond0
127.0.0.0 0.0.0.0 255.0.0.0 U 0 0 0 lo
我应该在 ifcfg 中添加一些东西吗?我也尝试过 LACP (802.3ad) 和 Balance-alb 模式,但没有成功。
答案1
通过在连接服务器和NAS的cisco交换机上正确设置LACPI和vlan来解决。