这是customLayer.py。
我对以下事情感到很困惑:
- 内层的输入不是变量。然后在
backward
中,它变为变量并需要渐变。为什么?
-
grad_output
是变量,但requires_grad为False。为什么不是真的?
- 在我的自定义图层中,我需要自定义向前和向后操作。这很复杂。看到相同的链接。我已在其中发布了问题。
醇>
1 个答案:
答案 0 :(得分:1)
- 渐变通过损失计算更新,并且是反向传播所必需的。如果您没有渐变,则无法训练您的网络。
- 可能是因为你不希望变量的最后一个渐变。它暂时只适用于一个落后阶段。
- 为什么需要自定义后退功能?你需要对你的反向传播进行额外的操作吗?
醇>