由于batch_size问题,有状态LSTM无法预测

时间:2017-07-14 13:00:44

标签: tensorflow keras lstm rnn

我能够使用keras成功训练我的有状态LSTM。我的批量大小为60,我在网络中发送的每个输入都可以被batch_size整除 以下是我的摘录:

model = Sequential()
model.add(LSTM(80,input_shape = trainx.shape[1:],batch_input_shape=(60, 
trainx.shape[1], trainx.shape[2]),stateful=True,return_sequences=True))
model.add(Dropout(0.15))
model.add(LSTM(40,return_sequences=False))
model.add(Dense(40))
model.add(Dropout(0.3))
model.add(Dense(output_dim=1))
model.add(Activation("linear"))
keras.optimizers.RMSprop(lr=0.005, rho=0.9, epsilon=1e-08, decay=0.0)
model.compile(loss="mse", optimizer="rmsprop")

我的训练线成功运行:

  model.fit(trainx[:3000,:],trainy[:3000],validation_split=0.1,shuffle=False,nb_epoch=9,batch_size=60)

现在我尝试预测测试集再次被60整除,但是我得到了错误:

  

ValueError:在有状态网络中,您应该仅使用a传递输入   可以除以批量大小的样本数。发现:240   样本。批量大小:32。

有谁能告诉我上面有什么问题?我很困惑,尝试了很多东西,但没有任何帮助。

1 个答案:

答案 0 :(得分:7)

我怀疑错误的原因是您没有在model.predict中指定批量大小。您可以在"预测"中的documentation中看到。部分,默认参数是

model.predict(self, x, batch_size=32, verbose=0)

这就是您的错误消息中出现32的原因。因此,您需要在batch_size=60中指定model.predict