我已经使用两个每个 1GBps 的物理以太网接口创建了一个虚拟接口(VIF)[读取 Linux Bonding / LACP 接口]。
当我对同一台服务器应用流量控制时,我发现出口带宽急剧下降(至少减少了 10 倍)。当没有流量控制时,出口带宽会高出 10 倍。
物理以太网接口上相同的流量控制不会导致出口带宽减少。
交通管制政策如下,
$iface
要么是,eth0
要么是vif
;并且$limit = 1500000
tc qdisc add dev ${iface} root handle 1: hfsc default 3
tc class add dev ${iface} parent 1:0 classid 1:1 \
hfsc ls rate 10000Mbit ul rate 10000Mbit
tc class add dev ${iface} parent 1:1 classid 1:3 \
hfsc ls rate 10000Mbit ul rate 10000Mbit
tc class add dev ${iface} parent 1:1 classid 1:4 \
hfsc ls rate "${limit}kbit" ul rate "${limit}kbit"
tc filter add dev ${iface} protocol ip parent 1:0 prio 1 \
u32 match ip dport ${port} 0xffff flowid 1:4
VIF [LACP 接口] 上的流量控制会导致此问题吗?我很困惑,因为上述流量控制不会在物理接口上导致任何问题。我对流量控制的用法也不太了解。
底层 Base Linux 层是 Debian。