如何在张量流中使用双向RNN层?

时间:2017-04-12 19:28:49

标签: tensorflow

当我们添加双向RNN层时,我可以理解我们必须连接隐藏状态。如果我们在编码器解码器模型中使用双向RNN层,我们是否必须单独训练双向RNN层?

1 个答案:

答案 0 :(得分:0)

不。引用Schuster和Paliwal的Bidirectional Recurrent Neural Networks的摘要:

  

可以训练BRNN,而不仅限于使用输入信息   直至预设的未来帧。这是通过训练完成的   在正负时间方向上同时

我猜你在谈论tf.nn.static_bidirectional_rnn