在Seq2Seq任务中,双向RNN(LSTM,GRU)是否可以解码?

时间:2019-04-06 08:37:09

标签: recurrent-neural-network seq2seq

在Seq2seq的解码器部分,就像语言建模一样,被赋予输入单词和隐藏状态以预测下一个单词。 在此机制中如何使用双向信息? 另外,我们是否还必须在双向RNN解码器中下一步生成句子词? 谢谢。

0 个答案:

没有答案
相关问题