分支神经网络中的中断反向传播

时间:2018-01-26 16:58:46

标签: keras backpropagation

我有一个看起来像这样的神经网络。

input_layer_1            input_layer_2
      |                        |
      |                        |
  some_stuff           some_other_stuff
      |                       /|
      |     _________________/ |
      |    /                   |
   multiply                    |
      |                        |
      |                        |
   output_1                 output_2

在反向传播期间是否有可能切断some_other_stuffmultiply之间的连接?我在考虑dropout,但这也适用于前向传播

因此,在反向传播期间,它应该像两个网络:

 input_layer_1            input_layer_2
      |                        |
      |                        |
  some_stuff           some_other_stuff
      |                        |
      |                        |
      |                        |
   multiply                    |
      |                        |
      |                        |
   output_1                 output_2

Output_1错误仅影响网络左侧的重量调整,仅影响右侧的Output_2错误。

我正在使用具有张量流的keras,所以可能有一些函数/层实现了这一点。

感谢。

1 个答案:

答案 0 :(得分:0)

如果有人想知道,你可以在Lambda-Layer中使用K.gradient_stop()