密集的最终层与另一个rnn层

时间:2017-03-16 16:35:30

标签: tensorflow deep-learning recurrent-neural-network

通常在递归神经网络(具有一个或多个层)的顶部添加一个密集的完全连接层作为最后一层,以便了解最终输出维数的减少。

假设我需要一个具有-1到1范围的输出,在这种情况下,我将使用具有tanh激活功能的密集层。

我的问题是:为什么不添加另一个内部大小为1的复发图层?

它会有所不同(在通过时间传播的意义上),但它会在密集层上有缺点吗?

1 个答案:

答案 0 :(得分:0)

如果我理解正确,你提出的两个替代方案是完全相同的计算,所以它们应该表现相同。

在TensorFlow中,如果你正在使用dynamic_rnn,那么如果所有时间步骤相同,则会更容易,因此处理输出而不是使用不同的最后一步。