图像平均减法与BatchNormalization - Caffe

时间:2016-12-19 12:40:15

标签: image-processing computer-vision batch-processing deep-learning caffe

我对Caffe中的图像预处理有疑问。 当我在我的caffemodel中使用BatchNormalization Layer时,我是否还需要预处理步骤"图像均值减法"在我的所有训练中训练阶段开始之前的图像?或者这是在BatchNormalization Layer中完成的吗?

非常感谢=)

1 个答案:

答案 0 :(得分:3)

图像平均减法与BatchNormalization有所不同,用于不同的目的。

BatchNormalization规范化批次而不是每个单独的图像,并且更多地用于保持数据分布良好并且对抗高激活并因此过度拟合。之后并非每个图像都具有0均值,但批次的组合具有0均值。如果batchsize为1,则只会相同。

图像平均减法主要用于对抗输入空间中的光照变化。 http://ufldl.stanford.edu/wiki/index.php/Data_Preprocessing

根据您的具体示例,您可以通过在输入后应用批量标准化而不是使用平均减法来获得良好的结果,但您需要对此进行测试。