训练特征,形状(1032,5,5,122880)进入LSTM层。这会产生" ValueError:输入0与层lstm_16不兼容:预期ndim = 3,找到ndim = 2"
1032是训练样本的数量
5x5x122880是培训样本的瓶颈功能
model = Sequential()
model.add(CuDNNLSTM(2048,input_shape=train_final_model.shape[:1))
model.add(Dense(2, activation='sigmoid'))
似乎Keras ValueError告诉我在运行LSTM层之前我应该重塑训练瓶颈功能。但这样做:
training_bottlenecked_features = np.reshape(train_final_model, (1032,25,122880))
print(training_bottlenecked_features.shape)
final_model.add(LSTM(2,input_shape=training_bottlenecked_features.shape[:1]))
产生这个:
(1032,25,122880)
" ValueError:输入0与图层lstm_23不兼容:预期ndim = 3,找到ndim = 2"
我已经在其他几个组合中使用了输入,所以我觉得我可能遗漏了Keras LSTM文档中的一些基本信息:https://keras.io/layers/recurrent/感谢您提供的任何见解。
答案 0 :(得分:0)
事实证明,LSTM和RNN依赖于使用keras.layers.TimeDistributed。这需要对培训和验证标签维度进行最低限度的重组(例如,使用np.expand_dims())。
如果TimeDistributed用于包装整个Sequential流,您可能还需要重新整形训练和验证数据。
此处的对话框有助于调用循环网络架构差异: https://github.com/keras-team/keras/issues/1029
反思,我希望我会在这里开始阅读: https://keras.io/layers/wrappers/