验证损失和验证准确性之间不匹配-卷积神经网络

时间:2020-03-28 12:10:42

标签: python-3.x deep-learning neural-network tensorflow2.0

我正在使用Python 3.7和TensorFlow 2.0以及CIFAR10数据集上的体系结构来训练卷积神经网络:

卷积层:64、64,最大池化层

致密层:256、256、10

我正在使用具有以下参数的自定义提前停止准则来训练此CNN: minimum_delta = 0.001,耐心= 3,而要监视的数量是验证损失或“ val_loss”。 Early Stopping Reference

培训的输出作为图片附上:

CNN Training output

最低的验证损失(0.8897)出现在第5阶段,验证准确性为69.41%,而第8阶段的验证损失更高,为0.9487,但最高验证准确性为70.27%。早期停止标准停止了进一步的训练,因为由于“耐心”值为3,因此在第5阶段之后监视的数量“ val_loss”停止减小。

为什么验证损失和验证准确性之间存在差异?我认为验证损失和准确性是齐头并进的,也就是说,验证损失最低的时代应该因此具有最低的验证准确性。

由于这种差异,监视的数量应该是“ val_loss”还是“ val_accuracy”?

谢谢!

0 个答案:

没有答案