Keras LSTM具有固定的输入大小,但不是第一层?

时间:2019-02-27 08:48:17

标签: keras lstm recurrent-neural-network

我有一个CNN--RNN模型,用于3类分类问题。

model.add(TimeDistributed(
   Conv1D(filters=32, kernel_size=(2,),
input_shape=(None, split, n_feat)))
model.add(TimeDistributed(BatchNormalization()))
model.add(TimeDistributed(Activation("relu")))
model.add(Dropout(0.2))
model.add(TimeDistributed(
   Conv1D(filters=32, kernel_size=(9,))))
model.add(TimeDistributed(BatchNormalization()))
model.add(TimeDistributed(Activation("relu")))
model.add(Dropout(0.2))
model.add(TimeDistributed(Flatten()))
model.add(LSTM(64, return_sequences=False))
model.add(Dense(3, activation='softmax'))

现在,我想使用PlaidML,它需要RNN(https://github.com/plaidml/plaidml/issues/142)的固定大小输入。

我的问题是-如何确定LSTM输入的大小(固定了afaik)?如果我向其添加input_shape参数,则什么也不会发生。

0 个答案:

没有答案