这是我的代码。
import torch
v = torch.tensor([0., 0., 0.], requires_grad=True)
x = 1
def f(grad):
global x
x = 2
return grad * 2
h = v.register_hook(f) # double the gradient
v.backward(torch.tensor([1., 2., 3.]))
h.remove()
print(v.grad)
使用pdb
进行调试时,发现无法中断函数f(我在语句x = 2
的f内设置了一个断点)。
有人知道如何解决吗?
注意:如果我使用pycharm,则可以破解该函数。但是在远程服务器上,我想使用pdb
。