为什么torch.gt函数会将require_grad变成False?

时间:2019-09-09 03:20:32

标签: python pytorch

张量requires_gradb的{​​{1}}是c。但是张量True的{​​{1}}是requires_grad。我很好奇为什么会发生这种变化,因为所有d的输入都为True。

但是,张量False的{​​{1}}是True。我仍然可以在requires_grad上进行requires_grad。但是这种方式有错误吗?

我正在使用Python3.7和Pytorch1.1。

e

1 个答案:

答案 0 :(得分:1)

我认为这是因为您不能采用大于运算的梯度。返回类型为布尔值:

>>> torch.gt(torch.tensor([[1, 2], [3, 4]]), torch.tensor([[1, 1], [4, 4]]))
tensor([[False, True], [False, False]])

减号或其他算术运算将返回另一个数字。