通过RNN层实现反向传播

时间:2020-07-09 12:46:24

标签: neural-network recurrent-neural-network backpropagation

我正在从头开始编写RNN的实现,尽管读了multiple tutorials,但在编码之前,我还有几件事需要验证from this diagram that I reference below

  1. 就像常规前馈神经网络一样,计算输出的损失,也就是梯度。换句话说,损失函数L = 0.5 * square(target - output)是有效的,我只需要目标值和输出就可以为每个时间步进行计算;
  2. 要计算W的梯度grad_w(请参见图表),又称状态S(t-1)和S(t)之间的权重,我们在时间步长t上取该权重的梯度,即{{ 1}},并将其添加到所有过去的渐变中。因此,对于时间步长t = 0,grad_s(t) * S(t-1),对于时间步长t = 1,grad_w(0) = 0,对于时间步长t = 2,grad_w(1) = 0 + grad_s(1) * S(0),依此类推。

这些假设是否正确?

0 个答案:

没有答案