LSTM如何使output_dim与下一层的input_dim不同?

时间:2018-03-02 22:21:34

标签: python machine-learning keras lstm keras-layer

我正在看这段代码:

model = Sequential()
model.add(LSTM(input_shape = (1,), input_dim=1, output_dim=6, return_sequences=True))
model.add(LSTM(input_shape = (1,), input_dim=1, output_dim=6, return_sequences=False))
model.add(Dense(1))
model.add(Activation('linear'))

第一层如何输出dim = 6,然后下一层的input_dim = 1?

修改

代码错误,Keras只是如实际生成的模型所示尽力(看模型与代码不匹配): enter image description here

0 个答案:

没有答案