为什么Convolutional网络需要多个功能图?

时间:2016-01-20 23:13:23

标签: deep-learning

我是深度学习的初学者。对于诸如lenet-5的卷积网络,C1层中有6个特征映射。每个要素图都与唯一的卷积核(5x5矩阵)相关联。

同一层中任何2个要素图之间有什么区别?对于像MNIST(没有RGB)的黑白图像数据集,人们仍然使用6个特征图。

我想,最初,6个卷积内核是随机生成的5x5矩阵。因此,当将相同的输入图像投影到不同的特征图时,特征图的输出将是不同的。这是主要动机,对吧?

1 个答案:

答案 0 :(得分:1)

卷积层中的每个滤镜都会从输入中提取特定要素。一个滤波器可能对水平边缘敏感,而另一个滤波器对垂直边缘敏感。第三滤光器可以对三角形形状敏感。您希望功能映射尽可能彼此不同,以避免冗余。避免冗余可以提高网络对尽可能多的数据变化的能力。 随机初始化可防止学习重复过滤器。

为什么要使用6张功能图?这是尝试其他数量的过滤器的结果。请记住,增加过滤器的数量会导致更高的计算开销,并可能过度拟合(记忆训练数据但不擅长正确分类新图像)。 6的另一个直觉是像素的变化不大,你最终会在后续层中提取更复杂的特征。 C1的6个特征映射最终适用于MNIST数据集。