我正在尝试在一个实时运行的应用程序中运行在Keras中受过训练的RNN。这里的经常性网络中的“时间”(它是一个LSTM)是接收数据的实际时刻。
我希望以在线方式获取RNN的输出。对于非重复模型,我只是将输入形成inputDatum=1,input_shape
形状并在其上运行Model.predict
。我不确定这是在Keras中为应用程序使用前向传递的预期方法,但它对我有用。
但对于循环模块,Model.predict
期望输入整个输入,包括时间维度。所以它不起作用......
有没有办法在Keras做到这一点,还是我需要转到Tensorflow并在那里实施操作?
答案 0 :(得分:3)
您可以将LSTM
图层设置为有状态。在您手动拨打model.reset_states()
之前,LSTM的内部状态将一直保留。
例如,假设我们已经训练了一个简单的LSTM模型。
x = Input(shape=(None, 10))
h = LSTM(8)(x)
out = Dense(4)(h)
model = Model(x, out)
model.compile(loss='mse', optimizer='adam')
X_train = np.random.rand(100, 5, 10)
y_train = np.random.rand(100, 4)
model.fit(X_train, y_train)
然后,可以使用stateful=True
将权重加载到另一个模型上进行预测(请记住在batch_shape
图层中设置Input
)。
x = Input(batch_shape=(1, None, 10))
h = LSTM(8, stateful=True)(x)
out = Dense(4)(h)
predict_model = Model(x, out)
# copy the weights from `model` to this model
predict_model.set_weights(model.get_weights())
对于您的用例,由于predict_model
是有状态的,对长度为1的子序列的连续predict
调用将给出与预测整个序列相同的结果。只需记住在预测新序列之前调用reset_states()
。
X = np.random.rand(1, 3, 10)
print(model.predict(X))
# [[-0.09485822, 0.03324107, 0.243945 , -0.20729265]]
predict_model.reset_states()
for t in range(3):
print(predict_model.predict(X[:, t:(t + 1), :]))
# [[-0.04117237 -0.06340873 0.10212967 -0.06400848]]
# [[-0.12808001 0.0039286 0.23223262 -0.23842749]]
# [[-0.09485822 0.03324107 0.243945 -0.20729265]]