我在keras训练神经网络后得到了这个结果,我想知道这是否过度拟合。
我有疑问,因为我读过度过滤是在网络过度训练时产生的,并且当验证损失增加时就会发生。
但在这种情况下,它不会增加。它保持不变,但培训损失减少了。
额外信息
以这种方式分割单个数据集:
2000 EPOCHS TRAINING
训练损失:3.1711e-05 验证损失:0.0036
答案 0 :(得分:2)
培训损失确实似乎继续比验证损失进一步减少(它仍然看起来像我在第500个时期没有完成减少,对于更多的时期并看看会发生什么会更好)。但差异似乎并不大。
可能略微过度拟合,但验证数据的分布可能与训练数据的分布略有不同。
我建议您测试以下内容:
答案 1 :(得分:2)
在某种意义上,你的训练损失不断减少,而且验证损失也在减少。
但是,我不认为这有害,因为验证损失并没有增加。这是如果我正确读取图表,如果有小幅增加,那么它就会变坏。
有害的过度补充是指您的验证损失开始增加。验证损失是衡量网络性能的真实指标。如果它上升,那么你的模型开始做坏事,你应该停在那里。
总而言之,这似乎相当不错。训练损失在某些时候几乎总是低于验证,这是训练集的优化过程。