为什么从Keras模型中删除验证样本可以提高测试的准确性

时间:2018-06-09 16:44:12

标签: keras conv-neural-network

我正在为Andrew Ng关于卷积模型的深度学习课程做一个编程任务,该课程涉及使用Keras训练和评估模型。在玩了一些旋钮之后我观察到的是一些好奇:通过设置validation_fraction参数,模型的测试准确度大大提高(从50百分位到90%)在Model.fit操作为0.这对我来说是令人惊讶的;我原以为消除验证样本会导致模型过度拟合,从而降低测试集的准确性。

有人可以解释为什么会这样吗?

2 个答案:

答案 0 :(得分:0)

你是对的,有更多的训练数据,但由于dI将验证分数设置为0.1,因此增加几乎可以忽略不计,因此这会使训练数据增加11.111 ...%但是,考虑一下更进一步,我意识到删除验证步骤对模型没有任何影响,因此对测试准确性没有影响。我我也必须改变其他一些参数,虽然我不记得是哪一个。

答案 1 :(得分:0)

正如Matias所说,这意味着可以使用更多的培训数据。

但是,我还要确保测试精度实际上从50%持续增加到90%。运行几次以确保。有可能,因为验证样本非常少,模型很幸运。这就是为什么拥有大量验证数据非常重要的原因 - 确保模型不是很幸运,而且实际上是一种疯狂的方法。

我查看了一些"规范"在我book关于股票预测的培训和测试数据方面(我认为学习深度学习的另一个好方法)。请随意查看并了解更多内容,因为它对初学者来说非常棒。

祝你好运!