平移等价性及其与卷积层和空间汇集层的关系

时间:2017-06-15 02:12:01

标签: math machine-learning tensorflow computer-vision deep-learning

在卷积神经网络模型的背景下,我曾经听过一个声明:

  

卷积的一个理想特性是它们是   翻译等变;并引入空间汇集   可以破坏翻译等同的属性。

这句话是什么意思,为什么?

2 个答案:

答案 0 :(得分:2)

很可能你是从Bengio's book听到的。我会尽力给你解释。

粗略地说,如果f(g(x)) = g(f(x)),两个变换是等变的。在你的卷积和翻译的情况下,如果你convolve(translate(x)),它就像你translate(convolve(x))一样。这是理想的,因为如果你的卷积会在图像中找到一只猫的眼睛,那么如果你要移动图像就会找到那只眼睛。

你可以自己看到这个(我只使用1d转换因为它很容易计算东西)。让v = [4, 1, 3, 2, 3, 2, 9, 1]k = [5, 1, 2]卷入。结果将是[27, 12, 23, 17, 35, 21]

现在让我们通过附加v' = [8] + v的东西来改变我们的v。与k进行对比,您将获得[46, 27, 12, 23, 17, 35, 21]。因为你的结果只是前面的结果,前面有一些新东西。

现在关于空间池的部分。让我们在第一个结果和第二个结果上进行大小为3的最大池化。在第一种情况下,您将在第二个[27, 35]中获得[46, 35, 21]。如您所见27以某种方式消失(结果已损坏)。如果你采取平均合并,它将更加腐败。

P.S。最大/最小池化是所有池中最平移不变的(如果你可以这么说,如果你比较非腐败元素的数量)。

答案 1 :(得分:0)

关于翻译同等不变术语的注释。这些术语是不同的。

等值转换意味着输入特征的转换会导致输出的等效转换。当我们需要找到图案矩形时,这是理想的。

不变翻译意味着输入的翻译完全不会改变输出。

实现翻译不变非常重要。这有效地意味着在学习图片左下角的某种模式后,我们的卷积网络可以在任何地方(也在右上角)识别出该模式。

我们知道,只有紧密连接的网络之间没有卷积层,才能实现平移不变性。

我们需要引入卷积层,以将泛化能力带入深层网络,并以更少的训练样本学习表示。