标签: recurrent-neural-network seq2seq
在Seq2seq的解码器部分,就像语言建模一样,被赋予输入单词和隐藏状态以预测下一个单词。 在此机制中如何使用双向信息? 另外,我们是否还必须在双向RNN解码器中下一步生成句子词? 谢谢。