不能将GPU与Tensorflow一起使用

时间:2016-10-25 08:21:24

标签: tensorflow cuda gpu cudnn compute-capability

我使用CUDA 7.5和cuDNN 5.0安装了tensorflow。我的显卡是NVIDIA Geforce 820M,功能2.1。但是,我收到了这个错误。

Ignoring visible gpu device (device: 0, name: GeForce 820M, pci bus id: 0000:08:00.0) with Cuda compute capability 2.1. The minimum required Cuda capability is 3.0.
Device mapping: no known devices.

有没有办法在2.1功能上运行GPU? 我在网上搜索发现它是cuDNN需要这个功能,那么安装早期版本的cuDNN能让我使用GPU吗?

2 个答案:

答案 0 :(得分:4)

tensorflow-gpu要求GPU加速计算能力为3.0或更高的GPU,自从第一次发布张量流以来就是这样。

cuDNN还要求GPU的计算能力为3.0或更高,但自从第一版cuDNN发布以来。

答案 1 :(得分:-1)

config = tf.compat.v1.ConfigProto(gpu_options = tf.compat.v1.GPUOptions(per_process_gpu_memory_fraction=0.8))
config.gpu_options.allow_growth = True
session = tf.compat.v1.Session(config=config)
tf.compat.v1.keras.backend.set_session(session)

尝试将此代码放在python代码之前。还要确保已将所有cuDNN dll安装到CUDA工具包中(如果在Windows上,则应将这些dll安装到Program Files> NVIDIA GPU计算工具包> CUDA>版本x.x目录中)。可以在NVIDIA网站上为开发人员找到该文档:https://docs.nvidia.com/deeplearning/sdk/cudnn-install/index.html