最大池与零填充:丢失空间信息

时间:2016-08-19 11:22:12

标签: neural-network convolution conv-neural-network downsampling

当涉及卷积神经网络时,通常有许多论文推荐不同的策略。我听过人们说在卷积之前向图像添加填充是绝对必要的,否则很多空间信息都会丢失。另一方面,他们很乐意使用池化(通常是最大池化)来减小图像的大小。我想这里的想法是最大池化减少了空间信息,但也降低了对相对位置的敏感度,所以这是一个权衡吗?

我听到其他人说零填充不会保留更多信息,只有更多空数据。这是因为通过添加零,当部分信息丢失时,您无法得到内核的反应。

我可以想象,如果边缘有“废料值”的大内核,并且激活源集中在内核的一个较小区域,则零填充有效吗?

我很乐意阅读一些关于使用池化而不使用填充的下采样效果的论文,但我无法找到它。有什么好的建议或想法吗? Spatial down-sampling using convolution contra pooling

图:使用卷积对立池的空间下采样(Researchgate)

2 个答案:

答案 0 :(得分:0)

添加填充不是“绝对必须”。有时控制输出的大小是有用的,这样它就不会被卷积减少(它也可以根据它的大小和内核大小来增加输出)。零填充添加的唯一信息是特征的边界(或近边界)条件 - 输入限制中的像素,也取决于内核大小。 (您可以将其视为相框中的“过去”)

汇聚对于非常重要的信息非常重要。汇集不完全是“下采样”或“丢失空间信息”。首先考虑在汇集之前已经进行了内核计算,并且具有完整的空间信息。池化减少了维度,但仍然保留了以前内核学到的信息。并且,通过这样做,实现了有关小行星的最有趣的事情之一;对输入的位移,旋转或失真的鲁棒性。如果学习了不变性,即使它出现在另一个位置或有失真,也会被定位。它还意味着通过不断扩大规模,发现 - 希望 - 在不同尺度上的等级模式进行学习。当然,并且在网络中也是必要的,池化使得计算成为可能,因为层数增加。

答案 1 :(得分:0)

我已经对这个问题感到困扰了一段时间,我也看到一些文章提到同样的问题。这是我最近发现的一篇论文; Recombinator Networks: Learning Coarse-to-Fine Feature Aggregation。我还没有完全阅读这篇论文,但似乎对你的问题感到烦恼。一旦我完全掌握了论文,我就可以更新这个答案。