卷积神经网络反向传播 - 卷积层中的delta计算

时间:2017-11-23 21:24:30

标签: neural-network conv-neural-network convolution backpropagation

所以我正在尝试制作CNN,到目前为止,我认为我理解完全连接层中的所有前向传播和反向传播。但是,我在卷积层中遇到了后支柱的一些问题。

基本上我已经写出了CNN中每个阶段的所有内容的尺寸,其中两个卷积层和两个完全连接的层,输入深度为1(因为它是黑色和白色),只有一个滤波器是应用于每个卷积层。我不打算在这个阶段使用汇集,因为据我所知它不应该对微积分产生任何影响,只是对它的分配位置,所以尺寸应该仍然适合,只要我也不包括任何uppooling在我的背后。在应用激活函数之后我也没有费心写出尺寸,因为它们与它们的输入相同,我会写两次相同的值。

正如您将看到的,尺寸在格式上略有不同。对于卷积层,我把它们写成图像,而不是矩阵形式。虽然对于完全连接的层,我已经将尺寸写为所用矩阵的尺寸(当你看到它时希望更有意义)。

问题在于,在计算卷积层的增量时,尺寸不合适,我做错了什么?

使用的网站:

http://cs231n.github.io/convolutional-networks/ http://neuralnetworksanddeeplearning.com/chap2.html#the_cross-entropy_cost_function http://www.jefkine.com/general/2016/09/05/backpropagation-in-convolutional-neural-networks/

尺寸计算:

Image of workings

0 个答案:

没有答案