您可以手动使LSTM忘记上下文吗?

时间:2019-03-18 10:53:46

标签: machine-learning lstm recurrent-neural-network

我对机器学习非常陌生,如果可以手动清空LSTM的短期记忆,我一直在徘徊。举例来说,我想在句子上训练LSTM “杰克和吉尔去了,”但决定不结束判决。如果然后我想在“坐在墙上的矮胖”上对其进行培训,我如何防止它立即预测“ hill”这个词?我正在使用Keras。

1 个答案:

答案 0 :(得分:1)

相关:When does keras reset an LSTM state?

如果您的LSTM是无状态的(stateful = False,我认为这对您来说更有意义),或者您将这两个句子放在同一批中来训练LSTM,则无需重置上下文。

如果确实如此,请使用model.reset_state()