我对机器学习非常陌生,如果可以手动清空LSTM的短期记忆,我一直在徘徊。举例来说,我想在句子上训练LSTM “杰克和吉尔去了,”但决定不结束判决。如果然后我想在“坐在墙上的矮胖”上对其进行培训,我如何防止它立即预测“ hill”这个词?我正在使用Keras。
答案 0 :(得分:1)
相关:When does keras reset an LSTM state?
如果您的LSTM是无状态的(stateful = False
,我认为这对您来说更有意义),或者您将这两个句子放在同一批中来训练LSTM,则无需重置上下文。
如果确实如此,请使用model.reset_state()
。