我了解从任何意义上讲,这都不是推荐用于机器学习的设置,但是我想使用已有的知识。
不是专家,有人告诉我tf-gpu应该可以与cuda支持的任何设备一起使用。
当我跑步时:
from numba import cuda
cuda.detect()
我得到:
Found 1 CUDA devices
id 0 b'GeForce MX130' [SUPPORTED]
compute capability: 5.0
pci device id: 0
pci bus id: 1
Summary:
1/1 devices are supported
我可以让GPU处理一些基本的“矢量化”任务。
另外,正在运行:
import tensorflow as tf
tf.test.is_built_with_cuda()
将返回True
但是,跑步
tf.config.experimental.list_physical_devices('gpu')
将返回一个空列表。
运行:
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
会返回:
Num GPUs Available: 0
运行:
strategy = tf.distribute.MirroredStrategy()
print("Number of devices: {}".format(strategy.num_replicas_in_sync))
将返回:
WARNING:tensorflow:There are non-GPU devices in `tf.distribute.Strategy`, not using nccl allreduce.
INFO:tensorflow:Using MirroredStrategy with devices ('/job:localhost/replica:0/task:0/device:CPU:0',)
Number of devices: 1
我已经使用非gpu版本的tensorflow训练了一些基本模型,但是我不知道如何处理tf-gpu。根据任务管理器的介绍,我能够用CuDNNLSTM图层拟合模型,但是脚本未使用GPU。
我将非常感谢您提供有关如何使用它的“ gpu”的任何建议,或者确认它是不可能的。谢谢!
已编辑:
我卸载了keras和两个tensorflow版本,并且仅安装了tensorflow-gpu。什么都没改变。
答案 0 :(得分:1)
绝对是!
我认为计算能力:5.0就足够了。
我在Python 3.7中用conda安装的tensorflow-gpu(处理cuda,版本兼容性等)测试了我的Geforce MX130
conda install tensorflow-gpu
就是这样!无需其他操作。 已安装以下版本:
tensorflow-gpu: 2.1.0
cudatoolkit: 10.1.243
cudnn: 7.6.5
...而且有效!
答案 1 :(得分:0)
同时安装Cuda和CuDNN。设置它们的路径。要检查TensorFlow是否正在使用GPU,请使用以下命令:
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
它应该在输出中显示您的GPU名称。
答案 2 :(得分:0)
不幸的是,
即使官方规格说明为“是”,但CUDA GPU列表中并未提及MX130作为其列表的一部分。
(我也在笔记本电脑上运行MX130)
参考: