Linux 绑定/LACP 接口上的流量控制

Linux 绑定/LACP 接口上的流量控制

我已经使用两个每个 1GBps 的物理以太网接口创建了一个虚拟接口(VIF)[读取 Linux Bonding / LACP 接口]。

当我对同一台服务器应用流量控制时,我发现出口带宽急剧下降(至少减少了 10 倍)。当没有流量控制时,出口带宽会高出 10 倍。

物理以太网接口上相同的流量控制不会导致出口带宽减少。

交通管制政策如下,

$iface要么是,eth0要么是vif;并且$limit = 1500000

tc qdisc add dev ${iface} root handle 1: hfsc default 3

tc class add dev ${iface} parent 1:0 classid 1:1 \
    hfsc ls rate 10000Mbit ul rate 10000Mbit
tc class add dev ${iface} parent 1:1 classid 1:3 \
    hfsc ls rate 10000Mbit ul rate 10000Mbit
tc class add dev ${iface} parent 1:1 classid 1:4 \
    hfsc ls rate "${limit}kbit" ul rate "${limit}kbit"

tc filter add dev ${iface} protocol ip parent 1:0 prio 1 \
    u32 match ip dport ${port} 0xffff flowid 1:4

VIF [LACP 接口] 上的流量控制会导致此问题吗?我很困惑,因为上述流量控制不会在物理接口上导致任何问题。我对流量控制的用法也不太了解。

底层 Base Linux 层是 Debian。

相关内容