我有一个看起来像这样的神经网络。
input_layer_1 input_layer_2
| |
| |
some_stuff some_other_stuff
| /|
| _________________/ |
| / |
multiply |
| |
| |
output_1 output_2
在反向传播期间是否有可能切断some_other_stuff
和multiply
之间的连接?我在考虑dropout
,但这也适用于前向传播
因此,在反向传播期间,它应该像两个网络:
input_layer_1 input_layer_2
| |
| |
some_stuff some_other_stuff
| |
| |
| |
multiply |
| |
| |
output_1 output_2
Output_1错误仅影响网络左侧的重量调整,仅影响右侧的Output_2错误。
我正在使用具有张量流的keras,所以可能有一些函数/层实现了这一点。
感谢。
答案 0 :(得分:0)
如果有人想知道,你可以在Lambda-Layer中使用K.gradient_stop()