Bond Slave 连接速度太慢

Bond Slave 连接速度太慢

在我的一台服务器上,我设置了一个由板载网卡和 PCIe 网卡组成的绑定设备。 (eth1 和 eth5)

man ifcfg-bonding我根据- 即 eth1 和 eth5 不会在系统启动时启动,但 bond0 会执行此操作来设置配置。

现在问题似乎是eth5建立链接的时间太长了。结果是由 eth1 和 eth5 组成的正在运行的 bond0,但 eth5 链路已关闭。

如果我在这种情况下做一个手册ifconfig eth5 up,eth5就会有一个链接,一切都会好起来的。

细节:

# cat /proc/net/bonding/pbond0
Ethernet Channel Bonding Driver: v3.2.5 (March 21, 2008)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth1
MII Status: up
Link Failure Count: 0

Slave Interface: eth5
MII Status: up
Link Failure Count: 0

# ethtool -i eth1
driver: bnx2
version: 2.0.18-suse
firmware-version: 6.2.16 bc 5.0.4 UMP 1.1.9

# ethtool -i eth5
driver: e1000
version: 7.6.15.5-NAPI
firmware-version: 5.6-2

解决方案可能是给 eth5 更多时间来在启动期间建立链接。这可能是非常特定于操作系统的(此处:SLES10 SP4)。

答案1

假设 eth1 和 eth5 至少设置为ONBOOT=yes(尽管没有其他配置),则可以使用POST_UP_SCRIPT变量 inifcfg-eth5来调用sleep 5.

或者,反过来,ifcfg-bond0PRE_UP_SCRIPTeth5 一些时间来解决。

与之比较Suse 文档

相关内容