KVM 客户机和主机之间的巨型帧?

KVM 客户机和主机之间的巨型帧?

我正在尝试为 KVM 客户机和主机系统之间的存储通信实现 9000 字节 MTU。主机有一个br1MTU 为 9000 字节的桥 ( ):

host# ip link show br1
8: br1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc noqueue state UP 
    link/ether fe:54:00:50:f3:55 brd ff:ff:ff:ff:ff:ff
    inet 172.16.64.1/24 brd 172.16.64.255 scope global br1
    inet6 fe80::21b:21ff:fe0e:ee39/64 scope link 
       valid_lft forever preferred_lft forever

客户机有一个连接到此桥的接口,该接口也具有 9000 字节的 MTU:

guest# ip addr show eth2
4: eth2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc pfifo_fast state UP qlen 1000
    link/ether 52:54:00:50:f3:55 brd ff:ff:ff:ff:ff:ff
    inet 172.16.64.10/24 brd 172.16.64.255 scope global eth2
    inet6 fe80::5054:ff:fe50:f355/64 scope link 
       valid_lft forever preferred_lft forever

我可以从主机 ping 通客户机:

host# ping -c4 172.16.64.10
PING 172.16.64.10 (172.16.64.10) 56(84) bytes of data.
64 bytes from 172.16.64.10: icmp_seq=1 ttl=64 time=1.15 ms
64 bytes from 172.16.64.10: icmp_seq=2 ttl=64 time=0.558 ms
64 bytes from 172.16.64.10: icmp_seq=3 ttl=64 time=0.566 ms
64 bytes from 172.16.64.10: icmp_seq=4 ttl=64 time=0.631 ms

--- 172.16.64.10 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3000ms
rtt min/avg/max/mdev = 0.558/0.727/1.153/0.247 ms

但是,如果我将 ping 数据包大小增加到 1490 字节以上,则将不再具有连接性:

host# ping -c4 -s 1491 172.16.64.10
PING 172.16.64.10 (172.16.64.10) 1491(1519) bytes of data.

--- 172.16.64.10 ping statistics ---
4 packets transmitted, 0 received, 100% packet loss, time 3000ms

数据包跟踪显示这些数据包从未到达客户机。我读到的所有内容都表明 Linux 桥接接口和virtio网络驱动器都支持巨型帧,但在我看来这肯定是 MTU 问题。

我是否忽略了一些非常明显的事情?

更新

显示客户界面的主机端:

host# brctl show
bridge name bridge id       STP enabled interfaces
br1     8000.fe540050f355   no      vnet2

host# ip addr show vnet2
11: vnet2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 9000 qdisc pfifo_fast master br1 state UNKNOWN qlen 500
    link/ether fe:54:00:50:f3:55 brd ff:ff:ff:ff:ff:ff
    inet6 fe80::fc54:ff:fe50:f355/64 scope link 
       valid_lft forever preferred_lft forever

答案1

虽然这是一个 MTU 问题,但事实证明它与任何组件设备上的 MTU 设置无关。正如我在原始问题中所示,主机桥、主机 tun 接口和客户机接口都具有相同的 MTU 设置(9000 字节)。

实际问题是 libvirt/kvm 配置问题。默认情况下,libvirt 会不是使用virtio设备。如果没有明确配置,您最终会得到 RealTek RTL-8139 NIC。此虚拟 NIC不支持巨型帧

要使用virtio设备,您需要指定显式模型。使用时virt-install

virt-install ... -w bridge=br1,model=virtio

或者事后通过在域 XML 中的<model>相应元素中添加标签来实现:<interface>

<interface type="bridge">
  <model type="virtio"/>
  <source bridge="br1"/>
  <target dev="vnet2"/>
</interface>

有了这个改变,一切都按预期进行。

答案2

为了使更大的 MTU 正常工作,整个堆栈必须具有更高的 MTU,包括客户机、tapdev 和桥接器连接到的物理 NIC(如果您在途中有绑定和 VLAN - 它们也是如此)

相关内容