如何在Keras中将先前细胞的预测作为输入来训练LSTM?

时间:2019-02-13 09:42:34

标签: keras frameworks lstm recurrent-neural-network

此刻,我正在使用一个简单的Keras模型来学习物品序列,然后使用经过训练的模型来生成新序列。 我希望将训练更改为与生成阶段相同的方式-意味着我希望模型从其自身的最后一步的预测中学习(并且我将在损失函数中使用基本事实)。 可以在Keras做吗?

这是我现在拥有的简单模型:

model1 = Sequential()
model1.add(LSTM(64, input_shape=(seq_length, X_train.shape[2]) , return_sequences=True))
model1.add(Dense(y_cat_train.shape[2], activation='softmax'))
model1.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
filepath="weights-improvement-{epoch:02d}-{loss:.4f}-bigger.hdf5"
checkpoint = ModelCheckpoint(filepath, monitor='loss', verbose=1, save_best_only=True, mode='min')
callbacks_list = [checkpoint]
model1.fit(X_train, y_cat_train, epochs=200, batch_size=10, verbose=2,callbacks=callbacks_list)

X_train实际上是2个功能:[prev step's true y, prev step's other feature]

0 个答案:

没有答案