我正在为Andrew Ng关于卷积模型的深度学习课程做一个编程任务,该课程涉及使用Keras训练和评估模型。在玩了一些旋钮之后我观察到的是一些好奇:通过设置validation_fraction
参数,模型的测试准确度大大提高(从50百分位到90%)在Model.fit
操作为0.这对我来说是令人惊讶的;我原以为消除验证样本会导致模型过度拟合,从而降低测试集的准确性。
有人可以解释为什么会这样吗?
答案 0 :(得分:0)
你是对的,有更多的训练数据,但由于dI将验证分数设置为0.1,因此增加几乎可以忽略不计,因此这会使训练数据增加11.111 ...%但是,考虑一下更进一步,我意识到删除验证步骤对模型没有任何影响,因此对测试准确性没有影响。我想我也必须改变其他一些参数,虽然我不记得是哪一个。
答案 1 :(得分:0)
正如Matias所说,这意味着可以使用更多的培训数据。
但是,我还要确保测试精度实际上从50%持续增加到90%。运行几次以确保。有可能,因为验证样本非常少,模型很幸运。这就是为什么拥有大量验证数据非常重要的原因 - 确保模型不是很幸运,而且实际上是一种疯狂的方法。
我查看了一些"规范"在我book关于股票预测的培训和测试数据方面(我认为学习深度学习的另一个好方法)。请随意查看并了解更多内容,因为它对初学者来说非常棒。
祝你好运!