所以我研究机器学习并使用远程 GPU 服务器来完成这些工作。当我上班时,我通常做的是使用 SSH 客户端访问服务器并运行我的别名hi
命令,该命令是:
alias hi='conda activate userconda; export CUDA_VISIBLE_DEVICES=1; alias hi'
服务器通常由两到三个人共享,并有两个 GPU,每个 GPU 都有 ID0
或1
.
我想知道的是,是否有某种方法可以CUDA_VISIBLE_DEVICES
根据未使用的 GPU 自动确定将哪个 GPU ID 分配给环境变量?现在我的别名被硬编码为CUDA_VISIBLE_DEVICES=1
,但如果程序可以自动执行此操作会更方便。
我在想也许有一种方法可以使用 的输出nvidia-smi
,但我不确定这是否是正确的方法。
谢谢!
答案1
Nvidia smi 向您报告活动显卡的总线:
nvidia-smi
Sat Apr 11 04:02:56 2020
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 440.64.00 Driver Version: 440.64.00 CUDA Version: 10.2 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce RTX 2070 On | 00000000:01:00.0 On | N/A |
| 45% 33C P8 11W / 175W | 252MiB / 7974MiB | 4% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 1089 G /usr/lib/xorg/Xorg 106MiB |
| 0 1355 G /usr/bin/kwin_x11 79MiB |
| 0 1361 G /usr/bin/krunner 2MiB |
| 0 1364 G /usr/bin/plasmashell 56MiB |
| 0 5152 G /usr/lib/firefox/firefox 2MiB |
+-----------------------------------------------------------------------------+
所以:00000000:01:00.0 开启是设备总线。因此,您可以运行 nvidia-smi grep 来获取此结果,并评估您可以通过 lspci 获取其总线的其他设备。