Pytorch可以将张量移动到GPU,但是nvidia-smi显示没有使用GPU内存

时间:2020-06-25 17:50:30

标签: tensorflow pytorch gpu nvidia

你好〜我对这种情况很困惑。

首先,我的tf和pytorch都可以检测到我的GPU(使用torch.cuda,is_available()) 但是我的模型在几天前就可以在GPU上运行了,现在只能在cpus上运行。 pytorch和tf似乎跳过了直接将模型传递给gpu的操作。

第二,我在python交互模式下测试了:

import torch
x = torch.randn(10000,1000).cuda()

此行工作正常,当我键入

x.device

python告诉我x在gpu设备索引0上 但同时。 nvidia-smi中没有使用GPU内存

第三,当我使用监控我的GPU状态

watch -n 1 nvidia-smi

我发现我的GPU的温度或功率在很长一段时间内都没有变化。

任何帮助将不胜感激!

0 个答案:

没有答案