验证和评估准确性的差异

时间:2016-06-07 08:48:20

标签: machine-learning computer-vision neural-network deep-learning caffe

我正在使用经过预先训练的GoogLeNet,然后在我的数据集上对其进行微调,以便对11个类进行分类。验证数据集似乎给出了“loss3 / top1”86.5%。但是当我评估我的评估数据集的性能时,它给我77%的准确性。无论我对train_val.prototxt进行了哪些更改,我都在deploy.prototxt中进行了相同的更改。验证和评估准确性之间的差异是正常的还是我做错了什么? 有什么建议吗?

1 个答案:

答案 0 :(得分:4)

为了在验证数据集上获得经过训练的模型的公平估计,您需要以有意义的方式设置test_itrtest_batch_size

因此,test_itr应设置为:

Val_data / test_batch_Size

其中,Val_data是验证数据集的大小,test_batch_Size是验证阶段中在batch_size中设置的验证批量大小值。