卷积核如何在CNN中训练?

时间:2018-08-20 09:00:59

标签: keras conv-neural-network convolution backpropagation

在CNN中,卷积运算将内核矩阵“卷积”在输入矩阵上。现在,我知道完全连接的层如何利用梯度下降和反向传播进行训练。但是内核矩阵随时间如何变化?

有多种初始化here, in the Keras documentation的方法来初始化内核矩阵。但是,我有兴趣知道它是如何训练的?如果它也使用反向传播,那么是否有任何论文详细描述了训练过程?

This post也提出了类似的问题,但未得到解答。

1 个答案:

答案 0 :(得分:3)

Here,关于卷积层的反向传播,您有一篇很好解释的文章。简而言之,就像FC层一样,它也是梯度下降。实际上,您可以按照here的说明有效地将卷积层转变为Fuly Connected层。