为什么在pytorch中grad_output requires_grad为False?

时间:2017-10-22 03:03:11

标签: pytorch

这是customLayer.py

我对以下事情感到很困惑:

  1. 内层的输入不是变量。然后在backward中,它变为变量并需要渐变。为什么?
  2. grad_output是变量,但requires_grad为False。为什么不是真的?
  3. 在我的自定义图层中,我需要自定义向前和向后操作。这很复杂。看到相同的链接。我已在其中发布了问题。

1 个答案:

答案 0 :(得分:1)

  1. 渐变通过损失计算更新,并且是反向传播所必需的。如果您没有渐变,则无法训练您的网络。
  2. 可能是因为你不希望变量的最后一个渐变。它暂时只适用于一个落后阶段。
  3. 为什么需要自定义后退功能?你需要对你的反向传播进行额外的操作吗?