使用 GPU 与 Keras 进行强化学习

时间:2021-01-20 14:21:33

标签: tensorflow machine-learning nvidia reinforcement-learning dqn

我正在使用 this 代码(请原谅它的混乱)在我的 CPU 上运行。我有一个我自己创建的自定义 RL 环境,我正在使用 DQN 代理。

但是当我在 GPU 上运行这段代码时,它并没有使用太多,实际上它比我的 CPU 慢。

这是 nvidia-smi 的输出。如您所见,我的进程在 GPU 上运行,但速度比我预期的要慢得多。

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 440.82       Driver Version: 440.82       CUDA Version: 10.2     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  TITAN Xp            Off  | 00000000:00:05.0 Off |                  N/A |
| 23%   37C    P2    60W / 250W |  11619MiB / 12196MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  TITAN Xp            Off  | 00000000:00:06.0 Off |                  N/A |
| 23%   29C    P8     9W / 250W |    157MiB / 12196MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
                                                                               
+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0     25540      C   python3                                    11609MiB |
|    1     25540      C   python3                                      147MiB |
+-----------------------------------------------------------------------------+

谁能指出我可以做些什么来更改我的 GPU 功能代码?

PS:请注意,我有两个 GPU,并且我的进程在这两个 GPU 上运行。即使我使用两个 GPU 中的任何一个,问题是我的 GPU 没有被使用,而且速度比 GPU 慢,所以两个 GPU 不是问题

0 个答案:

没有答案