TimeDistributed Layer可以用于多对一LSTM吗?

时间:2018-07-26 03:53:23

标签: keras nlp deep-learning lstm rnn

在Keras中,我发现许多人在训练多对一LSTM模型时将“返回序列”指定为False。 我想知道是否可以为每个时间步单元使用一个TimeDistributed层,然后在上方使用一个密集层来获取输出?

1 个答案:

答案 0 :(得分:1)

是的,您可以这样做。 问题是,您想要实现什么。 return_sequences确实返回所有隐藏状态,通常用于堆叠多个LSTM或用于seq到seq的预测(多对多)。默认值为“ False”,因为使用序列输出不是标准用例。

当您在最终的密集层中使用序列输出进行多对一预测时,它并没有真正的帮助,因为LSTM应该已经学会这样做。试试看,有时会有所帮助,但是很难解释为什么。