标签: torch backpropagation
让我详细介绍一些数学知识,以解释我试图从pytorch中获得什么(我疯了!):
您可能会认出的四个木质
1)从输入“ x”和权重“ theta”计算得出的网络“ f”的输出
2)计算普通损失(例如交叉熵)
3)修正损失,包括原始损失相对于输入的梯度
4)需要混合双梯度计算的相应权重更新。
普通lambda = 0,只需要计算损失,然后使用loss.backward()和optimizer.step()。
但是如何处理lambda = / = 0的情况?
谢谢。