标签: python keras loss-function
我正在使用Keras训练神经网络,并且要尽早停止。但是,在训练时,网络很早就达到了验证损失异常低的程度,这种情况会在一段时间后变平。
与patience = 50一起使用提前停止时,验证损失趋于平稳,但始终不会低于验证损失。
patience = 50
我使用rmsprop(学习率从0.1到1e-4)和adam优化器对网络进行了多次培训,并获得了相同的结果。
在监视选择最佳模型的验证损失之前,是否有人知道是否有办法为网络设置“预烧期”(例如在Markov Chain Monte Carlo模型中)?