CNN:为什么要将相同的激活贴图堆叠在一起

时间:2017-08-31 17:30:57

标签: neural-network deep-learning convolution

我想知道为什么我们将基本相同的激活图叠加在一起?由于它始终是在同一输入上应用的相同过滤器,它不会始终是相同的激活映射吗?

如果是这种情况,我们甚至不需要重新计算激活图,而只需复制激活图N次。这为我们提供了哪些其他信息?是的,我们再次创建一个具有深度(输出量)的图层,但如果它是相同的值,它背后的理性是什么?

enter image description here Src:http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture5.pdf

2 个答案:

答案 0 :(得分:1)

它不是相同的卷积,每个激活映射(独立权重)都有单独的独立内核(过滤器),因此它们完全不同。没有它,在卷积之后我们只会提取一种“特征”,比如边缘;而对于CNN来说,我们需要大量的这些。

在提供的示例中,“绿色5x5x3过滤器”生成一个绿色激活图,然后您有单独的“蓝色5x5x3过滤器”,它会生成蓝色激活图等等。

答案 1 :(得分:0)

实际上我们不会将相同的激活图叠加在一起,只是每个激活图的形状都保持不变(在您的情况下为5 * 5 * 3),但是权重不同激活图完全不同。
1.每个激活图共享相同的权重。是单个激活图,用于检测特定类型的特征出现在原始图的不同位置。
2.不同的激活图用于检测不同种类的特征。