如何将前一层的多个输出提供给连续的lstm层

时间:2016-11-29 14:14:11

标签: neural-network deep-learning keras lstm

我刚刚开始使用Keras。我遇到了一个问题,即如何将先前图层的多个输出提供给连续的lstm图层。我的模型(部分)如下所示:

batch_size = 64

output_1 = Dense(output_dim=(128, ), input_dim=(200, ))

output_2 = Dense(output_dim=(128,), input_dim=(200, ))

output_3 = Dense(output_dim=(128,), input_dim=(200, ))

output_4 = Dense(output_dim=(128,), input_dim=(200, ))

现在我的问题是如何将所有上述输出提供给lstm? input_dim应该像(batch_size,number_of_previous_outputs,128)

1 个答案:

答案 0 :(得分:1)

您可以执行合并图层(https://keras.io/getting-started/sequential-model-guide/#the-merge-layer)。使用concat或sum to,然后将合并层提供给lstm。

代码示例:

merged_output = merge([output_1, output_2, output_3, output_4], mode='concat', concat_axis=1)
lstm = LSTM(...)(merged_output)