CNN:在1个时期内训练300.000张图像或在1000个时期内训练300张图像更好吗?

时间:2018-07-20 07:59:55

标签: python deep-learning epoch yolo

这个问题与卷积神经网络(尤其是YoloV3)有关

由于一个时期是所有训练示例中的一个前进和一个后退,为了使模型正确收敛,与模型(从精度和收敛时间而言)是否相同:

  • m个时期内训练 n * k张图像
  • m * k个时期训练 n张图片

2 个答案:

答案 0 :(得分:0)

使用m *个时代的n * k张图像,通常会得到更好的模型,否则很容易overfitting

也有许多研究该领域的论文(为什么更多的数据似乎总是更好),例如this one

我建议对所有可用数据(减去测试和验证集)进行训练,只要模型未收敛或测试指标没有一致的下降趋势(在这种情况下,您可能过度拟合)训练数据)。

答案 1 :(得分:0)

不,它们不一样。

*您显示的示例网络数量定义了它将寻找的内容-包含更多示例的网络将趋于更普遍。例如,如果其中有1000张带有不同狗的图片,而您只显示300/300000张图片,则网络(平均)只会识别一种特定的狗,而无法挑选出所有狗的共同特征

*一个纪元基本上就是一小步地修改网络,这里的关键词很小-采取太大的步骤可能会超出我们的网络参数目标值。由于我们正在采取小步骤,因此我们必须采取其中几个步骤才能达到我们想要的位置。