在具有LSTM的Seq2Seq中,为什么将隐藏的STATES馈入解码器作为下一步的输入?

时间:2019-06-19 13:06:50

标签: lstm seq2seq encoder-decoder

我正在使用Seq2Seq模型,并在此处给出示例代码(https://github.com/keras-team/keras/blob/master/examples/lstm_seq2seq.py)。我不了解174-176行。

decoder_model = Model(
    [decoder_inputs] + decoder_states_inputs,
    [decoder_outputs] + decoder_states)

为什么这里的输入是[decoder_inputs] + coder_states_inputs?为什么我们需要解码器状态输入作为解码器输入的一部分?

我希望默认情况下,decoder_states_inputs作为隐藏状态传递,而不是Input。

0 个答案:

没有答案