![在 Debian 上运行带有 X Server 的单个 Nvidia RTX 2080 Ti 是否会影响训练 Tensorflow 模型的性能?](https://linux22.com/image/1608187/%E5%9C%A8%20Debian%20%E4%B8%8A%E8%BF%90%E8%A1%8C%E5%B8%A6%E6%9C%89%20X%20Server%20%E7%9A%84%E5%8D%95%E4%B8%AA%20Nvidia%20RTX%202080%20Ti%20%E6%98%AF%E5%90%A6%E4%BC%9A%E5%BD%B1%E5%93%8D%E8%AE%AD%E7%BB%83%20Tensorflow%20%E6%A8%A1%E5%9E%8B%E7%9A%84%E6%80%A7%E8%83%BD%EF%BC%9F.png)
我有一个 Ryzen 3700X、Asus Prime B450M-K 和 Nvidia RTX2080 Ti 的配置。CPU 没有充足的 PCI-E 通道,但卡上只有一条 PCI-E 3.0 x16。考虑到这一点,我决定不更换 CPU 就扩大配置。但我想知道这种单 GPU 配置是否会影响 Tensorflow 的训练速度。
我对 CUDA 的工作原理以及 GPU 是否会像 CPU 一样受到上下文切换的影响表示怀疑。如果确实如此,我可以添加一个新的基本(绝对比 PCI-E 3.0 x4 可以支持的要慢)显卡(使用新主板)来修复性能吗?
答案1
答案是肯定的。使用 X 和 CUDA 会影响性能。Nvidia 有一个非常古老的指南。最好的选择是使用两个 GPU,但驱动程序版本必须支持两张卡,否则您将无法同时使用两张卡。或者不使用 X 也是一个选择。请参阅:https://nvidia.custhelp.com/app/answers/detail/a_id/3029/~/using-cuda-and-x