卷积中的反向传播

时间:2015-05-04 21:31:24

标签: neural-network convolution backpropagation deep-learning

我在理解反向传播在卷积层中是如何工作时遇到了一些麻烦。实际上,在计算隐藏层中的错误之后,我们可以在错误图像中表示它。但在那之后,我该如何更新内核?

我在下图中给出了一个例子:我们有一个图像错误(l + 1)(计算了反向传播)连接到父输出(l)和相关的内核K.

在位置(x,y),错误将是:err = e1.k' 1 + e2.k' 2 + ... + e9.k' 9(k&#39 ;(l + 1)中内核的系数。因此,如果我们没有时刻,没有激活函数和没有学习率,那么K的校正将是:

K1 = K1 + err * e1

K2 = K2 + err * e2

...

第一个解释是否正确? 之后,如何推测错误?我们是仅在(x,y)位置或(x + kx,y + ky)位置用(kx,ky)滤波器K位置传播误差吗?

http://i.stack.imgur.com/vBJyZ.png

1 个答案:

答案 0 :(得分:-2)

反向传播在卷积网络中起作用,就像它在深度神经网络中的工作原理一样。唯一的区别在于,由于卷积过程中的权重共享机制,还应用了卷积层中权重的更新量。