标签: keras conv-neural-network convolution backpropagation
在CNN中,卷积运算将内核矩阵“卷积”在输入矩阵上。现在,我知道完全连接的层如何利用梯度下降和反向传播进行训练。但是内核矩阵随时间如何变化?
有多种初始化here, in the Keras documentation的方法来初始化内核矩阵。但是,我有兴趣知道它是如何训练的?如果它也使用反向传播,那么是否有任何论文详细描述了训练过程?
This post也提出了类似的问题,但未得到解答。
答案 0 :(得分:3)
Here,关于卷积层的反向传播,您有一篇很好解释的文章。简而言之,就像FC层一样,它也是梯度下降。实际上,您可以按照here的说明有效地将卷积层转变为Fuly Connected层。