我正在Keras的自定义Recurrent
图层上工作,我需要在每个序列后重置一个特定的重量。
例如:
(nb_sequences, sequence_size, value_size)
,self.A
和self.B
self.A
可以训练,self.B
不是使用self.A
和self.B
我希望我的模型在每个序列的开头都有一个干净的重置self.B
,同时仍像所有模型一样训练self.A
。
在此模型中,self.A
充当控制器,self.B
充当可读/可写内存。因此,在序列中,self.A
将在self.B
中进行写入和读取。但是我希望在每个序列的开头记忆都是空的
我看到您可以使用This Question中显示的save_weights
和load_weights
来重置整个模型,我想我可以通过调整它来重置图层中的特定权重,但是难点是在每个序列的末尾都这样做。
此Keras Documentation解释了如何在每个Train
,Epoch
或Batch
的开头/结尾处执行具体操作,但我找不到如何处理每个序列的开始......
我还想过在每个序列的开头使用每个states
发送的step
个变量来重置self.B
,但我无法弄清楚如何使用它... < / p>
有什么想法吗?