如何减少神经网络中假设的误差?

时间:2016-08-03 15:58:56

标签: machine-learning neural-network

假设您已实施正则化逻辑回归

对图像中的对象进行分类(即,做对象

识别)。但是,当您在新的

上测试您的假设时

一组图像,你会发现它变得无法接受的大

错误及其对新图像的预测。但是,你的

假设在

上表现良好(错误率低)

训练集。

中有哪些是有希望的步骤

取?

2 个答案:

答案 0 :(得分:0)

我自己解决问题的方法是获得更多的训练样本并减少功能。

答案 1 :(得分:0)

这个问题通常被称为"高差异"。在这些情况下,单独获取更多培训数据并不能保证改善您的结果。正如您在自己的回复中指出的那样,减少要素数量可能是一种很好的方法,并且当您使用正则化逻辑回归时,降低正则化参数也会有所帮助。