多层感知器 - 反向传播

时间:2012-04-04 20:34:16

标签: classification backpropagation neural-network

我有一个学校项目来编程多层感知器,将数据分为三类。我已经实现了http://home.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html的反向传播算法。我已经检查了我的算法(通过手动计算反向传播的每个步骤),如果它真的满足这个解释的步骤并且它满足。

为了分类我正在使用单热代码,我的输入包含带有2个值和3个输出神经元的向量(每个用于个别类)。在每个时代之后我改变了输入数据。对于分类我使用sigmoid函数。我也试图实现softmax,但我还没有找到如何看起来派生softmax。调整权重需要衍生的softmax吗?为了检查网络是否成功分类输入,我正在比较输出神经元的位置与输出神经元的最大输出是否对应于当前输入的单热码矢量等于1的位置。

但我的实施并没有训练这个神经网络。我正在研究和调试几天,并在互联网上查找我做错了但我没有找到答案。我真的不知道我在哪里弄错了。当我有10个输入时,我的神经网络将成功训练,但是当我有100,200,400和800输入时,它会在有一半好的分类输入时开始循环。正如我所说,我的反向传播算法很好。带有输入文件的Visual Studio 2010中的整个C ++项目位于:http://www.st.fmph.uniba.sk/~vajda10/mlp.zip

结构:

    struct input {
      vector<double> x;
      vector<double> cls;
    };

    struct neuron {
      double output;
      double error;
      neuron(double o, double e): output(o), error(e) { };
    };

全局变量:

    double alpha = 0.5;
    vector<vector<input>> data;

    vector<vector<neuron>> hiddenNeurons;
    vector<neuron> outputNeurons;
    vector<vector<vector<double>>> weights;

这是我的反向传播算法代码:

    for (int b = 0; b < data[0].size(); b++) {
      // calculate output of hidden neurons
      for (int i = 0; i < hiddenNeurons.size(); i++) {
        for (int j = 0; j < hiddenNeurons[i].size(); j++) {
          double activation = neuronActivation(0, b, i, j);
          hiddenNeurons[i][j].output = sigmoid(activation);
        }
      }
      double partError = 0;
      // calculate output and errors on output neurons
      for (int k = 0; k < outputNeurons.size(); k++) {
        double activation = neuronActivation(0, b, hiddenNeurons.size(), k);
        outputNeurons[k].output = sigmoid(activation);
        outputNeurons[k].error = data[0][b].cls[k] - outputNeurons[k].output;
        partError += pow(outputNeurons[k].error, 2);
      }

      error += sqrt(partError)/outputNeurons.size();

      // if classification is wrong
      if (data[0][b].cls[maxOutputIndex(outputNeurons)] != 1) {
        wrongClass++;

        // error backpropagation
        for (int i = hiddenNeurons.size()-1; i >= 0; i--) {
          for (int j = 0; j < hiddenNeurons[i].size(); j++) {
            hiddenNeurons[i][j].error = 0.0;

            if (i < hiddenNeurons.size()-1) {
              for (int k = 0; k < hiddenNeurons[i+1].size(); k++) {
                hiddenNeurons[i][j].error += hiddenNeurons[i+1][k].error * weights[i+1][j][k];
              }
            }
            else {
              for (int k = 0; k < outputNeurons.size(); k++) {
                hiddenNeurons[i][j].error += outputNeurons[k].error * weights[i+1][j][k];
              }
            }
          }
        }

        // adjust weights
        for (int i = 0; i < weights.size(); i++) {
          int n;
          if (i < weights.size()-1) {
            n = hiddenNeurons[i].size();
          }
          else {
            n = outputNeurons.size();
          }

          for (int k = 0; k < n; k++) {
            for (int j = 0; j < weights[i].size(); j++) {
              double y;
              if (i == 0) {
                y = data[0][b].x[j];
              }
              else {
                y = hiddenNeurons[i-1][j].output;
              }

              if (i < weights.size()-1) {
                weights[i][j][k] += alpha * hiddenNeurons[i][k].error * derivedSigmoid(hiddenNeurons[i][k].output) * y;
              }
              else {
                weights[i][j][k] += alpha * outputNeurons[k].error * derivedSigmoid(outputNeurons[k].output) * y;
              }
            }
          }
        }
      }
    }

拜托,任何人都可以告诉我我做错了什么或给我一个建议,我必须在哪里寻找错误?我希望我告诉了一切重要的事情。拜托,请原谅我的英语不好。

1 个答案:

答案 0 :(得分:2)

高斯分类器(如BackpropNN)只会对连续样本集进行样条。

由于您的网络学习了一小组示例,我认为小组没有不连续性。

这里是例如。是一组训练集的不连续性(输入向量--->输出向量):

[0,1,0,1,1,0,1,0] ---> [0,1,0]
[0,1,0,1,1,0,1,0] ---> [1,1,0]

算法无法对此进行分类(样条)。给定输入向量的输出向量必须是唯一的(连续的)。

如果你是随机生成你的样本,这可以解释为什么小集合似乎总是起作用 - 产生不连续性的可能性很小。较大的套装可以保证这个问题。

所以,只要扫描并删除任何问题样本,如果这确实是问题。请记住,传递函数实际上是一个规范化器,因此看起来不同的真实输入向量可能会标准化为同一性。

如果您仍然遇到局部最大值或最小值,请尝试更改epsilon(学习率)。你有硬编码为.5尝试其他值。

作为最后的努力,我还建议用步进功能替换sigmoid传递函数。 S形只是这种数字函数的生物模拟。直接使用数字传输删除此转换(步骤功能)。

Analog vs Digital transfer functions

sigmoids用于backprop的原因是Hinton的原创作品来自认知科学,而神经元的传递函数是一个S形 - 与数字函数最接近的自然类似物。