我已经花了好几天的时间,并设法使用最新的固件让 SR-IOV 与 Mellanox Infiniband 卡一起工作。
虚拟函数在 Dom0 中显示为
06:00.1 网络控制器:Mellanox Technologies MT27500 系列 [ConnectX-3 虚拟功能] 06:00.2 网络控制器:Mellanox Technologies MT27500 系列 [ConnectX-3 虚拟功能] 06:00.3 网络控制器:Mellanox Technologies MT27500 系列 [ConnectX-3 虚拟功能] 06:00.4 网络控制器:Mellanox Technologies MT27500 系列 [ConnectX-3 虚拟功能]
然后我将 06:00.1 从 Dom0 分离并将其分配给 xen-pciback。
我已将其传递到 Xen 测试域。
测试 DomU 中的 lspci 显示:
00:01.1 网络控制器:Mellanox Technologies MT27500 系列 [ConnectX-3 虚拟功能]
我在 DomU 中加载了以下模块
mlx4_ib
rdma_ucm
ib_umad
ib_uverbs
ib_ipoib
mlx4 驱动程序的 dmesg 输出显示:
[ 11.956787] mlx4_core: Mellanox ConnectX core driver v1.1 (Dec, 2011)
[ 11.956789] mlx4_core: Initializing 0000:00:01.1
[ 11.956859] mlx4_core 0000:00:01.1: enabling device (0000 -> 0002)
[ 11.957242] mlx4_core 0000:00:01.1: Xen PCI mapped GSI0 to IRQ30
[ 11.957581] mlx4_core 0000:00:01.1: Detected virtual function - running in slave mode
[ 11.957606] mlx4_core 0000:00:01.1: Sending reset
[ 11.957699] mlx4_core 0000:00:01.1: Sending vhcr0
[ 11.976090] mlx4_core 0000:00:01.1: HCA minimum page size:512
[ 11.976672] mlx4_core 0000:00:01.1: Timestamping is not supported in slave mode.
[ 12.068079] <mlx4_ib> mlx4_ib_add: mlx4_ib: Mellanox ConnectX InfiniBand driver v1.0 (April 4, 2008)
[ 12.184072] mlx4_core 0000:00:01.1: mlx4_ib: multi-function enabled
[ 12.184075] mlx4_core 0000:00:01.1: mlx4_ib: operating in qp1 tunnel mode
我甚至看到了 ib0 设备。
ib0 Link encap:UNSPEC HWaddr 80-00-05-49-FE-80-00-00-00-00-00-00-00-00-00-00
inet addr:10.10.10.10 Bcast:10.10.10.255 Mask:255.255.255.0
UP BROADCAST MULTICAST MTU:2044 Metric:1
RX packets:117303 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:256
RX bytes:6576132 (6.5 MB) TX bytes:0 (0.0 B)
我甚至可以在本地 ping 10.10.10.10。
然而,这些 ping 不会在 Infiniband 结构上发出。
这似乎是因为链接已断开。ibstat 显示:
CA 'mlx4_0'
CA type: MT4100
Number of ports: 1
Firmware version: 2.30.3000
Hardware version: 0
Node GUID: 0x001405005ef41f25
System image GUID: 0x002590ffff175727
Port 1:
State: Down
Physical state: LinkUp
Rate: 10
Base lid: 9
LMC: 0
SM lid: 1
Capability mask: 0x02514868
Port GUID: 0x0000000000000000
我该如何让它恢复正常?domU 链接已恢复正常,但 VF 链接尚未恢复?
答案实际上就在这里:根据此链接:http://www.spinics.net/lists/linux-rdma/msg13307.html
我需要做什么才能使从属 VF 的端口变为活动状态?我在另一个盒子上运行 opensm 3.3.13,它够新吗?(SR-IOV 是否需要任何 SM 支持?)
是的,正如 Hal 所说,你至少需要 opensm 3.3.14 (http://marc.info/?l=linux-rdma&m=133819320432335&w=2) 因为它是支持 SRIOV 所需的别名 guid 等内容的第一个版本,3.3.15 也已发布,所以您需要支持此功能的第二个版本...基本上,您需要 PPF 的 IB 链接和从属设备,以便在 SM 上为其注册一个别名 guid。我们(IL 团队)周二/周三放假,今晚会尝试为您提供更多详细信息,如果不行,明天就一定能拿到。
我现在已经升级了 OpenSM 并将很快报告。
编辑:好的,现在可以正常工作了。但是,我收到了 opensm 的日志爆炸。OpenSM 进程每秒写入数百个条目,格式如下:
Sep 30 20:36:26 707784 [7DC1700] 0x01 -> validate_requested_mgid: ERR 1B01: Wrong MGID Prefix 0x8000 must be 0xFF
Sep 30 20:36:26 707810 [7DC1700] 0x01 -> mcmr_rcv_create_new_mgrp: ERR 1B22: Invalid requested MGID
Sep 30 20:36:26 708096 [8DC3700] 0x01 -> validate_requested_mgid: ERR 1B01: Wrong MGID Prefix 0x8000 must be 0xFF
Sep 30 20:36:26 708119 [8DC3700] 0x01 -> mcmr_rcv_create_new_mgrp: ERR 1B22: Invalid requested MGID
Sep 30 20:36:26 708391 [FF5B0700] 0x01 -> validate_requested_mgid: ERR 1B01: Wrong MGID Prefix 0x8000 must be 0xFF
Sep 30 20:36:26 708421 [FF5B0700] 0x01 -> mcmr_rcv_create_new_mgrp: ERR 1B22: Invalid requested MGID
Sep 30 20:36:26 708696 [3DB9700] 0x01 -> validate_requested_mgid: ERR 1B01: Wrong MGID Prefix 0x8000 must be 0xFF
Sep 30 20:36:26 708719 [3DB9700] 0x01 -> mcmr_rcv_create_new_mgrp: ERR 1B22: Invalid requested MGID
当我重新启动并为 Dom0 提供更多内存时,上述错误消息消失了。我目前已为它分配了 2GB 内存,并且关闭了自动膨胀。不幸的是,它们又回来了,原因不明。所以我问了一个与此相关的新问题这里
我不太清楚为什么它在 dom0 中可以工作,但就我而言,我必须在具有 VF 的 Dom0 上运行 OpenSM。我推测这是因为在 Dom0 上运行的 OpenSM 实例知道 VF 并可以宣传它们,而另一个节点上的子网管理器却不知道?这是我的猜测。我希望另一个 xen 节点也能接收它的 VF。这可能最终会成为另一个问题。目前它与单个 Xen 节点一起工作。
答案1
必须在虚拟机管理程序主机上安装并启动 OpenSM 才能启动该状态。然后使用选项 PORTS="ALL" 启动 OpenSM。