教授神经网络:双极异或

时间:2010-11-16 01:44:58

标签: neural-network xor

我正在尝试教一个2输入,4个隐藏节点(全部在同一层)和1个输出节点的神经网络。二进制表示工作正常,但我遇到了双极问题。我无法弄清楚为什么,但总误差有时会收敛到2.xx附近的相同数字。我的sigmoid是2 /(1+ exp(-x)) - 1.也许我在错误的地方sigmoiding。例如,为了计算输出误差,我应该将sigmoided输出与预期值或sigmoided期望值进行比较?

我在这里关注这个网站:http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html,但他们使用了不同的功能,然后我被指示使用。即使我尝试实现他们的功能,我仍然遇到了同样的问题。无论哪种方式,我都会在相同的数字(大约不同的数字,不同的实现)中被卡住一半。请告诉我,我的代码是否在某处犯了错误,或者这是否正常(我不知道它是怎么回事)。动量设定为0.这是一个常见的0动量问题吗?我们应该使用的错误函数是:

如果ui是输出单位

Error(i) = (Ci - ui ) * f'(Si )

如果ui是隐藏单位

Error(i) = Error(Output) * weight(i to output) * f'(Si)

public double sigmoid( double x ) {
    double fBipolar, fBinary, temp;
    temp = (1 + Math.exp(-x));
    fBipolar = (2 / temp) - 1;
    fBinary = 1 / temp;
    if(bipolar){
        return fBipolar;
    }else{
        return fBinary;
    }

}

// Initialize the weights to random values.
private void initializeWeights(double neg, double pos) { 
    for(int i = 0; i < numInputs + 1; i++){
        for(int j = 0; j < numHiddenNeurons; j++){
            inputWeights[i][j] = Math.random() - pos;
            if(inputWeights[i][j] < neg || inputWeights[i][j] > pos){
                print("ERROR ");
                print(inputWeights[i][j]);
            }
        }
    }
    for(int i = 0; i < numHiddenNeurons + 1; i++){
        hiddenWeights[i] = Math.random() - pos;
        if(hiddenWeights[i] < neg || hiddenWeights[i] > pos){
            print("ERROR ");
            print(hiddenWeights[i]);
        }
    }
}

// Computes output of the NN without training. I.e. a forward pass
public double outputFor ( double[] argInputVector ) { 
    for(int i = 0; i < numInputs; i++){
        inputs[i] = argInputVector[i];
    }
    double weightedSum = 0;
    for(int i = 0; i < numHiddenNeurons; i++){
        weightedSum = 0;
        for(int j = 0; j < numInputs + 1; j++){
            weightedSum += inputWeights[j][i] * inputs[j];
        }
        hiddenActivation[i] = sigmoid(weightedSum); 
    }

    weightedSum = 0;
    for(int j = 0; j < numHiddenNeurons + 1; j++){
        weightedSum += (hiddenActivation[j] * hiddenWeights[j]);
    }

    return sigmoid(weightedSum);
}

    //Computes the derivative of f
public static double fPrime(double u){
    double fBipolar, fBinary;
    fBipolar = 0.5 * (1 - Math.pow(u,2));
    fBinary = u * (1 - u);
    if(bipolar){
        return fBipolar;
    }else{
        return fBinary;
    }
}

// This method is used to update the weights of the neural net.
public double train ( double [] argInputVector, double argTargetOutput ){
    double output = outputFor(argInputVector);
    double lastDelta;

    double outputError = (argTargetOutput - output) * fPrime(output);

    if(outputError != 0){
        for(int i = 0; i < numHiddenNeurons + 1; i++){
            hiddenError[i] = hiddenWeights[i] * outputError * fPrime(hiddenActivation[i]);
            deltaHiddenWeights[i] = learningRate * outputError * hiddenActivation[i] + (momentum * lastDelta);
            hiddenWeights[i] += deltaHiddenWeights[i];
        }

        for(int in = 0; in < numInputs + 1; in++){
            for(int hid = 0; hid < numHiddenNeurons; hid++){
                lastDelta = deltaInputWeights[in][hid];
                deltaInputWeights[in][hid] = learningRate * hiddenError[hid] * inputs[in] + (momentum * lastDelta); 
                inputWeights[in][hid] += deltaInputWeights[in][hid];
            }
        }
    }

    return 0.5 * (argTargetOutput - output) * (argTargetOutput - output);
}

1 个答案:

答案 0 :(得分:3)

一般编码评论:

initializeWeights(-1.0, 1.0);

实际上可能无法获得您期望的初始值。

initializeWeights应该有:

inputWeights[i][j] = Math.random() * (pos - neg) + neg;
// ...
hiddenWeights[i] = (Math.random() * (pos - neg)) + neg; 

而不是:

Math.random() - pos;

这样可行:

initializeWeights(0.0, 1.0);

并为您提供介于0.0和1.0之间的初始值,而不是介于-1.0和0.0之间。

lastDelta在声明之前使用:

deltaHiddenWeights[i] = learningRate * outputError * hiddenActivation[i] + (momentum * lastDelta);

我不确定+ 1numInputs + 1numHiddenNeurons + 1是否必要。

请注意注意整数的整数:5/2 = 2,而不是2.5! 请改用5.0 / 2.0。通常,当输出应为double时,在代码中添加.0。

最重要的是,你训练神经网络足够长吗?

尝试使用numInputs = 2,numHiddenNeurons = 4,learningRate = 0.9和训练1,000或10,000次来运行它。

使用numHiddenNeurons = 2时,在尝试解决XOR问题时,它有时会“卡住”。

另见XOR problem - simulation