在跟踪tensorflow的转移学习示例时,添加丢失是否有助于减少过度拟合?

时间:2016-06-03 03:51:45

标签: tensorflow

我正在使用预训练的张量流初始v3模型并转移学习在我拥有的新图像训练集上进行一些图像分类。我按照这里的说明进行操作:

https://www.tensorflow.org/versions/r0.8/how_tos/image_retraining/index.html

然而,我得到了一些严重的过度拟合(训练精度在90以上,但CV /测试精度在50s)。

除了做一些图像增强试图增加我的训练样本量之外,我想知道在重新训练阶段做一些辍学是否有帮助。

我正在使用此文件(带有tensorflow)作为我的再培训/转学习的基础/模板:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/image_retraining/retrain.py

查看初始v3模型,辍学就在那里。但是,我没有看到retrain.py文件中添加了任何丢失。

我是否可以尝试在训练中添加辍学以解决我的过度拟合问题?如果是这样,我会在哪里添加?如果没有,为什么?

由于

1 个答案:

答案 0 :(得分:0)

根据Max的上述评论,这是一个很好的答案:

Max在再次向retrain.py源添加输出时获得了一些好的改进。如果您想尝试一下,可以参考他的forked script。它有一些额外的更新,但你应该看的主要部分从第784行开始