在不使用辍学的情况下,验证损失小于培训损失(验证准确度高于培训准确度)

时间:2020-04-07 09:41:49

标签: tensorflow machine-learning keras deep-learning vgg-net

我一直在使用具有没有缺失层的VGG16来开发多任务模型。我发现验证准确性高于训练准确性,而验证损失却小于训练损失。

我似乎无法找出模型中发生这种情况的原因。

下面是训练图:

enter image description here

数据:

我正在使用(随机混排的图像)70%的训练,15%的验证,15%的测试,而15%的测试数据的结果如下:

enter image description here enter image description here

您认为这些结果好得令人难以置信吗?

1 个答案:

答案 0 :(得分:1)

一开始是的,但是到最后,您可以看到它们开始改变位置。

在训练结束时,您将接近过拟合点(如果Val损失开始增加或val精度开始降低,则表明您已经过拟合)

但是从一开始,可以解释这种行为的原因可能是培训和测试之间的某些数据不平衡。也许您在验证数据库中有更简单的示例,或者类不平衡,或者更多的空值,等等。