提早停止可以防止过度拟合吗?

时间:2019-10-25 13:08:09

标签: neural-network deep-learning conv-neural-network

我正在训练几个网络,这些网络在最初的10个时间段后似乎都过度拟合,这表明需要做很多事情,例如使用规则,规范化和积极的辍学来进行数据增强。但是,我在网上看到了几篇文章,提到过早停止可以代替适当的培训网络,并建议我们可以起诉它以防止过度拟合。我认为,如果您的网络已经运行了很多,并且由于以下原因而陷入困境,则应该使用早期停止:1.网络停止改进2.网络已经训练了很长时间,超过了其最佳点,现在开始过度适应。在我的情况下,网络从未完全收敛,在大约10个时期之后,val损失急剧上升,文献对这种情况下使用提前停止有何评论?是否有共识可以接受?

0 个答案:

没有答案