最新版本的 docker(或任何版本的 nvidia-docker)允许从 docker 容器内直接访问主机 GPU,并完全访问 CUDA API。这在部署复杂的机器学习推理服务器时非常方便。
不过据我所知,目前仅支持 Linux 主机。
为什么微软和苹果不能加强他们的策略并提供相同级别的支持?也就是说,Linux 使用了什么技巧,而其他操作系统显然很难模仿?
答案1
Linux 上的 Docker 直接使用托管内核,但 Windows 上的 Docker 实际上在 VM(由 Windows 中的 Hyper-V 托管)中运行,因为 Windows 没有可供 Docker 直接交互的 Linux 内核。因此,从 Windows 上的 Docker 容器访问主机 GPU 需要从客户 VM 中的 Docker 容器延伸到托管 Windows 操作系统以与 GPU 驱动程序通信。微软和 GPU 制造商需要进行大量特殊开发才能正确支持所有这些。
答案2
自 2020 年 2 月起,Dx 可以通过 Windows 容器访问 GPU 并基于 Dx 进行计算。您可以在以下网址阅读更多信息https://github.com/MicrosoftDocs/Virtualization-Documentation/tree/master/windows-container-samples/directx,特别是以下部分:
演示了使用 GPU 加速容器化和运行 DirectX 工作负载。具体来说,我们使用 WinMLRunner 机器学习推理应用程序
如 [https://techcommunity.microsoft.com/t5/containers/bringing-gpu-acceleration-to-windows-containers/ba-p/393939] 中所述,Windows 容器与随附的 Docker 更新一起添加了“进程隔离”模式,该模式不需要或使用 VM。
至于 CUDA 访问,请等待未来更新,了解除了 Dx 之外还支持哪些其他 API。
2020 年 6 月 29 日更新 - 现在可以从 Windows 上的 WSL2 访问 CUDA。 https://docs.microsoft.com/en-us/windows/wsl/tutorials/gpu-compute https://developer.nvidia.com/cuda/wsl
答案3
它需要 GPU 直通(即 DDA),该功能仅在 Windows Server 2016 中可用