我正在尝试使用Pycharm IDE中使用tensorflow提供的启用gpu的docker映像运行一个简单的tensorflow示例。一切正常,除了运行时,tensorflow不会从容器中检测到GPU,而是默认返回到CPU:
tensorflow/stream_executor/cuda/cuda_driver.cc:318] failed call to cuInit:
运行: Ubuntu 18.04.3 Docker 19.03.3 根据{{3}}
的最新版本的NVIDIA docker支持我已经使用远程解释器功能设置了Pycharm项目以运行image:tensorflow:latest-gpu
如果我使用以下命令从命令行运行容器:
docker run --gpus all --rm tensorflow/tensorflow:latest-gpu nvidia-smi
我明白了:
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 430.26 Driver Version: 430.26 CUDA Version: 10.2 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 108... Off | 00000000:41:00.0 On | N/A |
| 28% 26C P8 9W / 250W | 443MiB / 11177MiB | 1% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
+-----------------------------------------------------------------------------+
..告诉我docker安装,映像和nvidia docker支持都可以。
现在,当Pycharm运行容器时,它不包含“ --gpus all”命令行选项。
如果我在没有--gpus all参数的情况下运行以上相同的命令:
docker run --rm tensorflow/tensorflow:latest-gpu nvidia-smi
我得到:
docker: Error response from daemon: OCI runtime create failed: container_linux.go:345: starting container process caused "exec: \"nvidia-smi\": executable file not found in $PATH": unknown.
因此,这表明Pycharm没有添加标记作为罪魁祸首。
但是,根据文档:https://github.com/NVIDIA/nvidia-docker(GPU的底部) 环境变量NVIDIA_VISIBLE_DEVICES = all应该完成相同的操作。我确认即使没有--gpus所有参数,也确实设置了此环境变量。
此外,似乎没有办法从Pycharm中添加其他命令行参数。所以我被困住了。我觉得这种设置不太吸引人,希望我缺少一些基本知识。