全连接卷积网络中的上采样如何工作?

时间:2018-07-31 03:21:18

标签: neural-network deep-learning conv-neural-network

我阅读了几篇文章/文章,并对CNN下采样后的上采样机制有疑问。

我从这个问题中得到了第一个答案: https://www.quora.com/How-do-fully-convolutional-networks-upsample-their-coarse-output

我了解到,类似于正常的卷积运算,“向上采样”还使用了需要训练的内核。

问题1:如果“空间信息”在CNN的第一阶段已经丢失,那么无论如何都应该对其进行重构?

问题2:为什么>“从网络深处的一个较小的(粗)特征图中进行上采样具有良好的语义信息,但分辨率较差。从一个较大的特征图中进行更靠近输入的向上采样将产生更好的细节,但语义信息却更差”?< / p>

1 个答案:

答案 0 :(得分:4)

问题#1

上采样不会(也不能)重建任何丢失的信息。它的作用是使分辨率恢复到上一层的分辨率。

从理论上讲,我们可以完全消除向下/向上采样层。但是,为了减少计算量,我们可以在图层之前对输入进行下采样,然后对输出进行上采样。

因此,向下/向上采样层的唯一目的是减少每一层的计算,同时保持输入/输出的尺寸不变。

您可能会认为下采样可能会导致信息丢失。这始终是可能的,但请记住,CNN的作用实质上是从输入中提取“有用”信息并将其缩减为较小的维度。

问题2

当我们从CNN的输入层转到输出层时,数据的大小通常会减小,而语义和提取的信息有望增加。

假设我们有一个CNN用于图像分类。在这种CNN中,早期层通常提取图像中的基本形状和边缘。接下来的层将检测更复杂的概念,例如角,圆。您可以想象最后一层可能具有检测非常复杂特征的节点(例如图像中人的存在)。

因此,与最后一层相比,从靠近输入的大型特征图进行上采样可产生更好的细节,但语义信息较少。回想起来,最后一层通常具有较小的尺寸,因此与早期的层相比,它们的分辨率更差。