在 Debian 上运行带有 X Server 的单个 Nvidia RTX 2080 Ti 是否会影响训练 Tensorflow 模型的性能?

在 Debian 上运行带有 X Server 的单个 Nvidia RTX 2080 Ti 是否会影响训练 Tensorflow 模型的性能?

我有一个 Ryzen 3700X、Asus Prime B450M-K 和 Nvidia RTX2080 Ti 的配置。CPU 没有充足的 PCI-E 通道,但卡上只有一条 PCI-E 3.0 x16。考虑到这一点,我决定不更换 CPU 就扩大配置。但我想知道这种单 GPU 配置是否会影响 Tensorflow 的训练速度。

我对 CUDA 的工作原理以及 GPU 是否会像 CPU 一样受到上下文切换的影响表示怀疑。如果确实如此,我可以添加一个新的基本(绝对比 PCI-E 3.0 x4 可以支持的要慢)显卡(使用新主板)来修复性能吗?

答案1

答案是肯定的。使用 X 和 CUDA 会影响性能。Nvidia 有一个非常古老的指南。最好的选择是使用两个 GPU,但驱动程序版本必须支持两张卡,否则您将无法同时使用两张卡。或者不使用 X 也是一个选择。请参阅:https://nvidia.custhelp.com/app/answers/detail/a_id/3029/~/using-cuda-and-x

相关内容