pytorch如何使用输入的梯度来计算损失函数并获得参数的优化?

时间:2019-12-03 16:08:22

标签: torch backpropagation

让我详细介绍一些数学知识,以解释我试图从pytorch中获得什么(我疯了!):

您可能会认出的四个木质

1)从输入“ x”和权重“ theta”计算得出的网络“ f”的输出

2)计算普通损失(例如交叉熵)

3)修正损失,包括原始损失相对于输入的梯度

4)需要混合双梯度计算的相应权重更新。

普通lambda = 0,只需要计算损失,然后使用loss.backward()和optimizer.step()。

但是如何处理lambda = / = 0的情况?

谢谢。

0 个答案:

没有答案