我正在使用卷积神经网络并比较其他方法,例如HoG。
用这两种方法完成二进制分类后,我得到了这些数字:
HoG方法:
培训准确度:83%
测试准确度:62%
CNN方法:
培训准确度:100%
验证准确度:91%
测试准确度:85%
我的问题是,这些方法是否适合培训?
答案 0 :(得分:0)
这两种方法都显示过度拟合,实际上你无法完全避免。关键是将其降至最低。我对HoG不太熟悉,但对于CNN,有几种常见的方法可以最大限度地减少过度拟合,例如辍学,批量归一化,早期停止和交叉验证。当然还有好的数据,这意味着要训练的大量数据尽可能多样化。
在培训时期内可视化培训进度始终是一个好主意:培训和测试准确性紧挨着各自的损失函数。两者的损失在开始时会变小,但最终测试损失会增加。这是你应该停止训练的地步,因为所有进一步的努力只会带来更好的训练准确性。比喻说,CNN用心去学习训练样本。训练样本的100%准确率表明您的情况发生了这种情况。