在Recurrent层中的每个序列之后重置特定权重

时间:2017-06-16 11:46:31

标签: python tensorflow keras

我正在Keras的自定义Recurrent图层上工作,我需要在每个序列后重置一个特定的重量。

例如:

  • 该条目的形状为(nb_sequences, sequence_size, value_size)
  • 我的网络有2组权重,比如self.Aself.B
  • self.A可以训练,self.B不是

使用self.Aself.B

计算输出

我希望我的模型在每个序列的开头都有一个干净的重置self.B,同时仍像所有模型一样训练self.A

在此模型中,self.A充当控制器,self.B充当可读/可写内存。因此,在序列中,self.A将在self.B中进行写入和读取。但是我希望在每个序列的开头记忆都是空的

我看到您可以使用This Question中显示的save_weightsload_weights来重置整个模型,我想我可以通过调整它来重置图层中的特定权重,但是难点是在每个序列的末尾都这样做。

Keras Documentation解释了如何在每个TrainEpochBatch的开头/结尾处执行具体操作,但我找不到如何处理每个序列的开始......

我还想过在每个序列的开头使用每个states发送的step个变量来重置self.B,但我无法弄清楚如何使用它... < / p>

有什么想法吗?

0 个答案:

没有答案