维基百科说Tesla M60 拥有 2x8 GB RAM(不管这意味着什么)和 TDP 225-300 W。
我使用一个 EC2 实例 (g3s.xlarge),它应该有 Tesla M60。但nvidia-smi
命令显示它有 8GB 内存,最大功率限制为 150W:
> sudo nvidia-smi
Tue Mar 12 00:13:10 2019
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 410.79 Driver Version: 410.79 CUDA Version: 10.0 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla M60 On | 00000000:00:1E.0 Off | 0 |
| N/A 43C P0 37W / 150W | 7373MiB / 7618MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 6779 C python 7362MiB |
+-----------------------------------------------------------------------------+
这是什么意思?我是否能得到“半张”卡?Tesla M60 实际上是两张卡吗卡住是否按照 RAM 规格(2x8)建议的那样一起?
答案1
是的,特斯拉 M60两个 GPU 粘在一起,并且每个 g3s.xlarge 或 g3.4xlarge 实例都会获得一两个 GPU。