“太早”在克拉斯提前停止

时间:2019-05-28 11:57:03

标签: python keras loss-function

我正在使用Keras训练神经网络,并且要尽早停止。但是,在训练时,网络很早就达到了验证损失异常低的程度,这种情况会在一段时间后变平。 loss functions

patience = 50一起使用提前停止时,验证损失趋于平稳,但始终不会低于验证损失。

我使用rmsprop(学习率从0.1到1e-4)和adam优化器对网络进行了多次培训,并获得了相同的结果。

在监视选择最佳模型的验证损失之前,是否有人知道是否有办法为网络设置“预烧期”(例如在Markov Chain Monte Carlo模型中)?

0 个答案:

没有答案