过度进行图像裁剪会导致深度学习模型的性能不佳吗?

时间:2016-07-10 15:24:13

标签: crop deep-learning

我目前正在构建一个深度学习模型来识别图像。根据我的阅读,数据增加(如随机裁剪图像)将减少模型的过度拟合。但是,我不确定如果过度这样做会导致更糟糕的模型。当然,我可以尝试更多裁剪和裁剪更少裁剪。但问题是如何才能知道问题是否来自作物的数量。

是否可以从尺寸为n x n的图像中制作尺寸为m x m的所有作物,从而提高模型的性能?

我相信它会。我的理由是:当我们训练深度学习模型时,我们会查看火车损失和验证损失并训练模型,直到损失非常低。假设最初我们有一组1000个图像的火车,模型需要100个时期来训练。现在,我们从原始火车组中裁剪出10倍的额外图像。现在可以将每个时期看作等同于先前模型中具有较少训练数据的10个时期。然而,与之前模型中的10倍重复相比,这10个时期的每个训练数据略有不同。当然,这将导致过度拟合。我的推理是否正确?

在这种情况下,假设我们有足够的计算资源,是否有裁剪所有可能较小尺寸图像的缺点?

目前我正在研究从72x72的图像中裁剪所有可能的64x64图像,这样每张原始图像总共会有64张新图像。

我还没有看到任何与之相关的论文。如果有人能指出我,我将不胜感激。感谢。

2 个答案:

答案 0 :(得分:1)

回答你的问题,没有。它不会损害性能,但它会为一般过程增加几毫秒。也许你能得到的最佳答案是尝试不同的方法。

答案 1 :(得分:0)

根据我的实验,性能增益可以忽略不计,可能会导致过度拟合,因为会反复看到相似的图像。