标签: tensorflow
当我们添加双向RNN层时,我可以理解我们必须连接隐藏状态。如果我们在编码器解码器模型中使用双向RNN层,我们是否必须单独训练双向RNN层?
答案 0 :(得分:0)
不。引用Schuster和Paliwal的Bidirectional Recurrent Neural Networks的摘要:
可以训练BRNN,而不仅限于使用输入信息 直至预设的未来帧。这是通过训练完成的 在正负时间方向上同时 。
我猜你在谈论tf.nn.static_bidirectional_rnn。
tf.nn.static_bidirectional_rnn