当最终张量中包含多个值时,可以使用autograd吗?
我尝试了以下方法。
x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2
print(y)
y.backward()
引发错误
RuntimeError: grad can be implicitly created only for scalar outputs
但是以下方法有效。
x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2
y = torch.sum(y)
print(y)
y.backward()
print(x.grad)
输出为
tensor(41., grad_fn=<SumBackward0>)
tensor([ 8., 10.])
我在这里遗漏了什么吗?还是我可以假设自动渐进仅在最终张量中具有单个值时起作用?
答案 0 :(得分:3)
请参见https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html#gradients
y.backward()
与y.backward(torch.tensor(1.0))
通常,输出为标量,因此将标量作为默认选项传递给后向。但是,由于您的输出是二维的,因此您应该调用
y.backward(torch.tensor([1.0,1.0]))
这将给出预期的结果,其中x.grad
为tensor([ 8., 10.])