我是机器学习的新手,而我对卷积神经网络一无所知,这就是为什么我们在卷积层之后执行激活。
答案 0 :(得分:1)
因为卷积后跟卷积就是卷积。因此,任意深度的卷积神经网络都不会介入某种非卷积层(例如relu层),从根本上等效于只有一层的卷积神经网络。这是因为组成线性变换是线性的:
y = m1*(m2*x + b2) + b1
= m1 * m2 * x + m1 * b2 + b1
这只是一个线性函数...当您只能学习一个并且完全相同时,为什么要学习两个呢?此逻辑甚至适用于局部线性函数(卷积为局部线性)。因此,对于任何卷积神经网络(也包括普通神经网络),我们必须在线性层之间进行非线性的某些操作。 relu是一个非常简单的非线性函数,它是基本的“弯曲”。
答案 1 :(得分:0)
CNN是神经网络之一。神经网络的基本思想是,当您有足够的输入时,将基于激活函数的计算来触发神经元。 基本神经网络,称为多后期感知器(MLP),其中您具有传递到第一MLP层的X维输入,并且该过程继续进行到下一层,最终在输出的末尾有一个神经元计算得出的结果可能是基于问题的分类或回归。
在输入图像上应用滤镜/内核之后,以类似的方式。之后,您需要在该卷积图像上应用像relu或Sigmoid一样的逐元素激活函数。如果您有足够的输入作为其他层的输入,则激活功能会产生输出。