模型中的dropout和data.split

时间:2017-02-12 06:18:55

标签: tensorflow deep-learning keras dropout

众所周知,辍学是一种帮助控制过度拟合的机制。在Keras的培训过程中,我们可以通过监控验证损失进行在线交叉验证,并在model.fit中设置数据分割。

一般来说,我是否需要同时使用这两种机制?或者如果我在model.fit中设置数据分割,那么我不需要使用dropout。

1 个答案:

答案 0 :(得分:1)

Dropout是一种正规化技术,即它可以防止网络快速过度拟合数据。验证丢失只是告诉您网络何时过度拟合。这是两个完全不同的东西,当你的模型过度拟合时,验证损失对你没有帮助,只是告诉你它是。

我想说,在验证过程中有一个验证损失是有价值的信息,你永远不应该没有它。是否需要正则化技术(如噪声,丢失或批量标准化)取决于网络的学习方式。如果您发现它过度,那么您应该尝试使用正则化技术。