在卷积神经网络模型的背景下,我曾经听过一个声明:
卷积的一个理想特性是它们是 翻译等变;并引入空间汇集 可以破坏翻译等同的属性。
这句话是什么意思,为什么?
答案 0 :(得分:2)
很可能你是从Bengio's book听到的。我会尽力给你解释。
粗略地说,如果f(g(x)) = g(f(x))
,两个变换是等变的。在你的卷积和翻译的情况下,如果你convolve(translate(x))
,它就像你translate(convolve(x))
一样。这是理想的,因为如果你的卷积会在图像中找到一只猫的眼睛,那么如果你要移动图像就会找到那只眼睛。
你可以自己看到这个(我只使用1d转换因为它很容易计算东西)。让v = [4, 1, 3, 2, 3, 2, 9, 1]
与k = [5, 1, 2]
卷入。结果将是[27, 12, 23, 17, 35, 21]
现在让我们通过附加v' = [8] + v
的东西来改变我们的v。与k
进行对比,您将获得[46, 27, 12, 23, 17, 35, 21]
。因为你的结果只是前面的结果,前面有一些新东西。
现在关于空间池的部分。让我们在第一个结果和第二个结果上进行大小为3的最大池化。在第一种情况下,您将在第二个[27, 35]
中获得[46, 35, 21]
。如您所见27
以某种方式消失(结果已损坏)。如果你采取平均合并,它将更加腐败。
P.S。最大/最小池化是所有池中最平移不变的(如果你可以这么说,如果你比较非腐败元素的数量)。
答案 1 :(得分:0)
关于翻译同等和不变术语的注释。这些术语是不同的。
等值转换意味着输入特征的转换会导致输出的等效转换。当我们需要找到图案矩形时,这是理想的。
不变翻译意味着输入的翻译完全不会改变输出。
实现翻译不变非常重要。这有效地意味着在学习图片左下角的某种模式后,我们的卷积网络可以在任何地方(也在右上角)识别出该模式。
我们知道,只有紧密连接的网络之间没有卷积层,才能实现平移不变性。
我们需要引入卷积层,以将泛化能力带入深层网络,并以更少的训练样本学习表示。