如何训练这个神经网络?

时间:2017-06-07 17:40:37

标签: neural-network xor

我编写了一个简单的反向传播NN。以下是代码段:

        for (int i = 0; i < 10000; i++)
        {

            /// i1 = Convert.ToDouble(textBox1.Text);
            //i2 = Convert.ToDouble(textBox2.Text);
            //desired = Convert.ToDouble(textBox3.Text);

            Random rnd = new Random();
            i1 = rnd.Next(0, 1);
            Random rnd1 = new Random();
            i2 = rnd1.Next(0, 1);
            if(i1 == 1 && i2 == 1)
            {
                desired = 0;
            }
            else if(i1 == 0&&i2 == 0)
            {
                desired = 0;
            }
            else
            {
                desired = 1;
            }



            //hidden layer hidden values
            h1 = i1 * w1 + i2 * w2; //i1*w1+i2*w2
            h2 = i1 * w3 + i2 * w4;//i1*w3+i2*w4
            h3 = i1 * w5 + i2 * w6;//i1*w5+i2*w6;

            //hidden layer hidden values

            //VALUE OF HIDDEN LAYER
            h1v = Sigmoid(h1);
            h2v = Sigmoid(h2);
            h3v = Sigmoid(h3);
            //VALUE OF HIDDEN LAYER            

            //output final
            output = h1v * w7 + h2v * w8 + h3v * w9;
            outputS = Sigmoid(output);
            //output final

            //BACKPROPAGATION

            //MARGIN ERROR
            Error = desired - outputS; //desired-cena jaka ma byc OutputS-zgadnienta cena

            //Margin Error

            //DElta output sum
            deltaoutputsum = Derivative(output) * Error; //output bez sigmoida i error
                                                         //Delta output sum

            //weight of w7,w8,w9.
            w7b = w7; //0.3
            w8b = w8; // 0.5
            w9b = w9;// 0.9
            w7 = w7 + deltaoutputsum * h1v; //waga w7
            w8 = w8 + deltaoutputsum * h2v; //waga w8
            w9 = w9 + deltaoutputsum * h3v; //waga w9
                                            //weights of w7,w8,w9.

            //DELTA HIDDEN SUm
            h1 = deltaoutputsum * w7b * Derivative(h1);
            h2 = deltaoutputsum * w8b * Derivative(h2);
            h3 = deltaoutputsum * w9b * Derivative(h3);
            //DELTA HIDDEN SUM

            //weights 1,2,3,4,5,6
            w1 = w1 - h1 * i1;
            w2 = w2 - h1 * i2;
            w3 = w3 - h2 * i1;
            w4 = w4 - h2 * i2;
            w5 = w5 - h3 * i1;
            w6 = w6 - h3 * i2;
            label1.Text = outputS.ToString();
            label2.Text = w1.ToString();
            label3.Text = w2.ToString();
            label4.Text = w3.ToString();
            label5.Text = w4.ToString();
            label6.Text = w5.ToString();
            label7.Text = w6.ToString();
            label8.Text = w7.ToString();
            label9.Text = w8.ToString();
            label10.Text = w9.ToString();
            //weights 1,2,3,4,5,6

        }

解决XOR问题非常简单。但现在我不知道如何预测输出。在这里我必须提供设置权重的answear,但如何预测呢? 它通过随机训练数据训练10,000。 现在什么时候训练如何预测安装? 请帮忙。 对不起我的英语,但我现在不是很好。

h1-3是节点的权重 h1v是节点的值 w1-10是权重

1 个答案:

答案 0 :(得分:0)

我相信你的问题在于你的训练方式。

执行以下操作,我相信您的计划是正确的

  • 尝试逐个训练每个数据集而不是随机,随机工作以获得连续浮点值,但是当您使用XOR时,您可能会遇到一两套训练过多的问题值(由于随机的性质)将导致将wieghts移回到与其他输入XOR值一起使用的值的问题。因此训练[1,1],然后立即[1,0]然后[0,1]然后[0,0]并反复重复。

  • 确保导数函数正确; sigmoid的导数应为sigmoid(x) - sigmoid(x)^2

  • 将隐藏的和值命名为与h1h2等不同的值。如果您将其用于隐藏节点输入值。

如果你做了那些事情,看起来你应该在数学上与"how to build a neural-network"具有完全相同的东西。

我还建议您使用循环中初始化>而不是之外的值。我可能错了,但除了w1 w2 w3等...值之外,我认为除了每次训练迭代都需要保持不变。不执行此操作会导致难以捕获错误并使代码更难阅读,因为您无法保证变量不会在其他地方进行修改。