Encog:重量不断增加

时间:2014-09-13 06:18:57

标签: java neural-network encog

我正在尝试使用Encog库训练神经网络。

数据集(约7000个示例)在拆分(进入训练(60%),交叉验证(20%)和测试(20%)之前)进行线性标准化,使其看起来像这样:

Min=-1.000000; Max=1.000000; Average=-0.077008

目标(理想)数据集(也是线性标准化的)如下所示:

Min=0.201540; Max=0.791528; Average=0.477080

我是这样的网络:

mNetwork = new BasicNetwork();
mNetwork.addLayer(new BasicLayer(null, false, trainingDataSet.getInputSize()));
mNetwork.addLayer(new BasicLayer(new ActivationSigmoid(), true, numberOfNeurons));
mNetwork.addLayer(new BasicLayer(new ActivationSigmoid(), false, trainingDataSet.getIdealSize()));
mNetwork.getStructure().finalizeStructure();
mNetwork.reset();

我使用ResilientPropagation培训师(已尝试Backpropagation):

ResilientPropagation training = new ResilientPropagation(mNetwork, mTrainingDataSet);
for (int i = 0; i < mNumberOfIterations; ++i) {
    training.iteration();
    result.trainingErrors[i] = mNetwork.calculateError(mTrainingDataSet);
    result.validationErrors[i] = mNetwork.calculateError(mValidationDataSet);
    System.out.println(String.format("Iteration #%d: error=%.8f", i, training.getError()));
}
training.finishTraining();

在培训过程中,培训师报告的错误通常会减少。完成训练后,我倾倒重量:

0.04274211002929323,-0.5481902707068103,0.28978635361541294,-0.203635994176051,22965.18656660482,22964.992410871928,22966.23882308963,22966.355722230965,22965.036733143017,22964.894030965166,22966.002332259202,22965.177650526788,22966.009842504238,22965.971560546248,22966.257180159628,22966.234150681423,-21348.311232865744,-21640.843082085466,-21057.13217475862,-21347.52051343582,-21347.988714647887,-21641.161098510198,-21057.27275747668,-21348.784123049118,-21347.719149090022,-21639.773689115867,-21057.095487328377,-21348.269878600076,22800.304816865206,23090.894751729396,22799.39388588725,22799.72408290791,22800.249806096508,22799.19823789763,22799.85510732227,22799.99965531053,22799.574773588192,22799.57945236908,22799.12542315293,22799.523065957797

它们通常非常大或非常小。使用sigmoid,最终收敛到某个数字的预测,例如权重(在500次迭代后得到)给我:

Min=0.532179; Max=0.532179; Average=0.532179

网络或培训配置似乎有问题。如果我的网络存在低方差,至少会产生与目标范围相关的结果。如果它遭受高差异,它将匹配目标。现在,它完全错过了目标。

即使预测结束,错误如何减少并变得相当低? Anyone在上面的例子中看到了明显的错误?我还没有很好的神经网络经验。

1 个答案:

答案 0 :(得分:0)

我认为问题是你在-1和1之间进行标准化,并使用一个激活函数sigmoid,它适用于0到1之间的数字。 我建议你在0.1到0.9之间进行标准化,或者使用tanh激活函数重试。

我也会使用k-fold交叉验证,请参阅此处http://www.heatonresearch.com/node/2000

蒙特拉