如何检测文本训练是否过度拟合?

时间:2016-11-16 00:32:35

标签: machine-learning tensorflow deep-learning textsum

我正在使用Tensorflow 0.9并使用Textsum模型进行训练。我有大约130万篇文章,我已经和他们一起训练了大约一个星期了。平均损失约为1.75-2.1。我决定停止并运行eval,因为我的理解是我的平均损失应该接近我接受的培训。当我跑eval时,我看到平均损失2.6到2.9。我只是想知道在执行此运行时我应该期待什么。

我是否正确使用此培训/评估分析?我对深度学习有些新意,并尝试将其作为一种学习方式,并通过其他一些阅读,似乎这可能是两者之间的一个大的分布。

是否存在针对不同数据集进行评估的标准容差以及平均损失的差异应该是多少?在这一点上,我不确定我是否应该继续训练或暂时停在这里并尝试弄清楚如何在tensorflow服务中运行。我不想过度适应模型,但从学术角度来看,假设我通过培训做了过度适应。我需要做些什么才能“修复”它?您现在只是获取更多文章并将这些数据作为培训提供,或者该模型是否基本上已破损且无法使用?

1 个答案:

答案 0 :(得分:0)

无法保证评估损失与培训损失相匹配。过度拟合很难衡量,但如果随着训练的进行,评估损失会增加,这是一个明显的迹象。