如何堆叠RNN图层?

时间:2019-10-22 14:06:25

标签: keras deep-learning recurrent-neural-network

我的理解是RNN的输出y由

给出

y=f(A * state_inputs + bias)

状态输入也移到输出上。

在我的情况下,输出y是下一个时间步的状态值。我有解析方程来估算线性系数A和偏差。

我想堆叠RNN(或LSTM)层以使输出成为下一层的输入,但我也要跟踪输出以将每个输出用作误差估计的一部分,以便误差估计是每个时间步的误差之和。

我需要大约160个时间步长或160层。我有代码将权重初始化为解析值,但是输出仅为y,而不是移位状态。因此,我没有下一层的转移状态。同样,权重有两种可能,要么所有层都具有相同的权重,要么权重在 N 层中保持一致,其中 N 可以为1,在这种情况下,所有层将具有不同的权重。

能给我一个指导方针吗?

  1. 如何输出移位状态,以便将其输入到下一层。

  2. 如何在多个图层上使用相同的权重。

  3. 如何在错误函数中使用每一层的输出“ y”?

0 个答案:

没有答案