我已经遵循了所有说明,现在,割炬在GPU上运行,但是TF无法检测到GPU。
我尝试了很多StackOverflow主题,但毕竟不能!
结果:
torch.cuda.is_available()
是:
True
但是当我跑步时:
from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())
结果是:
[name: "/device:CPU:0"
device_type: "CPU"
memory_limit: 268435456
locality {
}
incarnation: 6820542267928817272
, name: "/device:XLA_CPU:0"
device_type: "XLA_CPU"
memory_limit: 17179869184
locality {
}
incarnation: 16263925709367684790
physical_device_desc: "device: XLA_CPU device"
]
和
的结果 pip3 list
是:
tensorboard 1.13.1
tensorflow 1.13.1
tensorflow-estimator 1.13.0
tensorflow-estimator-2.0-preview 1.14.0.dev2019052100
tensorflow-gpu 1.13.1
如何使用TF.keras在GPU上运行网络?