你好〜我对这种情况很困惑。
首先,我的tf和pytorch都可以检测到我的GPU(使用torch.cuda,is_available()) 但是我的模型在几天前就可以在GPU上运行了,现在只能在cpus上运行。 pytorch和tf似乎跳过了直接将模型传递给gpu的操作。
第二,我在python交互模式下测试了:
import torch
x = torch.randn(10000,1000).cuda()
此行工作正常,当我键入
x.device
python告诉我x在gpu设备索引0上 但同时。 nvidia-smi中没有使用GPU内存
第三,当我使用监控我的GPU状态
watch -n 1 nvidia-smi
我发现我的GPU的温度或功率在很长一段时间内都没有变化。
任何帮助将不胜感激!