反向传播如何在卷积神经网络(CNN)中起作用?

时间:2016-03-22 15:29:51

标签: kernel convolution backpropagation

我对CNN的问题很少。在图层S2和C3之间的下图中,使用了5 * 5大小的内核。enter image description here

Q1。那里使用了多少内核?这些内核中的每一个都与层S2中的每个特征映射相连接吗? Q2。使用Max-pooling时,反向调整错误最大池特征/神经元如何知道/确定其先前直接层中的哪个(特征图/神经元)得到最大值?

Q3。如果我们想训练内核然后用随机值初始化,是否有任何方程式使用反向传播的误差值更新这些内核值?

Q4。在上图中,在从F6层获得错误后,反向传播如何在“输入”和“C5”层之间工作?

1 个答案:

答案 0 :(得分:0)

<强> Q1: C1-&gt; 6个内核 C3-&gt; 16个内核

S2和S4只是二次采样,这意味着2 * 2像素将减少到1像素 最普遍的汇集机制是MAX Pooling:

 (  5   10 ) -->
 (         ) -->  (10)
 (  7    8 ) --> 

<强> Q2: 您可以保存信息,或者如果有足够的时间重新运行max_pooling并检查最大值,然后将错误放在此位置。此2 * 2块中的其他值为零