让一个简单的神经网络在C ++中从头开始工作

时间:2010-01-07 08:23:30

标签: c++ neural-network

我一直试图让一个简单的双XOR神经网络工作,我遇到了反向传播训练一个非常简单的前馈神经网络的问题。
我一直在尝试按照this指南获取神经网络,但最多只能制作以极慢的速度学习的程序。

据我了解神经网络:

  1. 通过从该神经元的所有输入的总和中获取sigmoid函数的结果来计算值。然后使用每个神经元的重量将其送入下一层
  2. 在运行结束时,计算输出神经元的误差,然后使用权重,通过简单地将值乘以然后在每个神经元处求和来向后传播误差
  3. 当计算所有误差时,权重通过delta =连接的权重* sigmoid的导数(神经元权重的值)来调整*连接的神经元的值*神经元的误差*量的神经元输出误差为* beta(学习率有些常数)
  4. This是我目前正在努力工作的代码。我有很多其他尝试有点混淆,但我试图开始工作的主要反向传播功能是在Net.cpp的第293行

5 个答案:

答案 0 :(得分:21)

看看15 Steps to implement a Neural Network,它应该让你入门。

答案 1 :(得分:12)

我写了一个简单的"教程"你可以在下面查看。

这是感知器模型的简单实现。你可以将感知器想象成只有一个神经元的神经网络。你可以测试我用C ++编写的诅咒代码。我会逐步完成代码,这样你就不会有任何问题。

虽然感知器并不是真正的神经网络"如果您想要开始并且可以帮助您更好地理解完整的神经网络如何工作,那将非常有用。

希望有所帮助! 干杯! ^ _ ^

在这个例子中,我将介绍C ++中感知器模型的实现,以便您更好地了解它的工作原理。

首先,首先写一个我们想要做的简单算法是一个好习惯。

算法:

  1. 制作权重的向量并将其初始化为0(不要忘记添加偏见词)
  2. 继续调整权重,直到我们得到0错误或错误计数低。
  3. 预测未见数据。
  4. 编写了一个超级简单的算法后,我们现在编写一些我们需要的函数。

    • 我们需要一个函数来计算网络输入(e.i * x * wT * 乘以输入时间的权重)
    • 阶梯函数,以便我们得到1或-1
    • 的预测
    • 一个找到权重理想值的函数。

    所以,不用多说,让我们直接进入它。

    通过创建一个感知器类,让我们开始简单:

    class perceptron
    {
    public:
    
    private:
    
    };
    

    现在让我们添加我们需要的功能。

    class perceptron
    {
    public:
        perceptron(float eta,int epochs);
        float netInput(vector<float> X);
        int predict(vector<float> X);
        void fit(vector< vector<float> > X, vector<float> y);
    private:
    
    };
    

    注意函数 拟合 如何将向量&lt;的向量作为参数。浮动&gt;。那是因为我们的训练数据集是一个输入矩阵。基本上我们可以想象矩阵作为几个向量 x 将一个向量堆叠在另一个向量的顶部,并且该矩阵的每一列都是一个特征。

    最后,让我们添加我们班级需要的值。比如载体 w 来保持权重, epochs 的数量表示我们的通过次数将完成训练数据集。并且常量 eta 这是我们将每个权重更新相乘的学习率,以便通过拨打此值或 <使训练过程更快em> eta 太高我们可以拨打它以获得理想的结果(对于感知器的大多数应用我会建议 eta 值0.1)。

    class perceptron
    {
    public:
        perceptron(float eta,int epochs);
        float netInput(vector<float> X);
        int predict(vector<float> X);
        void fit(vector< vector<float> > X, vector<float> y);
    private:
        float m_eta;
        int m_epochs;
        vector < float > m_w;
    };
    

    现在我们的课程设置。现在是编写每个功能的时候了。

    我们将从构造函数开始( perceptron(float eta,int epochs);

    perceptron::perceptron(float eta, int epochs)
    {
        m_epochs = epochs; // We set the private variable m_epochs to the user selected value
        m_eta = eta; // We do the same thing for eta
    }
    

    正如您所看到的,我们将要做的事情非常简单。因此,让我们转到另一个简单的功能。预测函数( int预测(向量X); )。请记住,所有 预测 功能所做的是获取净输入,如果 netInput ,则返回值1大于0和-1的其他人。

    int perceptron::predict(vector<float> X)
    {
        return netInput(X) > 0 ? 1 : -1; //Step Function
    }
    

    请注意,我们使用内联if语句来简化生活。以下是内联if语句的工作原理:

    条件? if_true:else

    到目前为止一切顺利。让我们继续实施 netInput 函数( float netInput(向量X); )< / p>

    netInput执行以下操作; 将输入向量乘以权重向量的转置

    * x * wT *

    换句话说,它将输入向量 x 的每个元素乘以权重向量 w 的对应元素,然后拿出他们的总和并加上偏见。

    *(x1 * w1 + x2 * w2 + ... + xn * wn)+偏见*

    * bias = 1 * w0 *

    float perceptron::netInput(vector<float> X)
    {
        // Sum(Vector of weights * Input vector) + bias
        float probabilities = m_w[0]; // In this example I am adding the perceptron first
        for (int i = 0; i < X.size(); i++)
        {
            probabilities += X[i] * m_w[i + 1]; // Notice that for the weights I am counting
            // from the 2nd element since w0 is the bias and I already added it first.
        }
        return probabilities;
    }
    

    好的,所以我们现在已经完成了很多工作,我们需要做的是编写 fit 函数来修改权重。

    void perceptron::fit(vector< vector<float> > X, vector<float> y)
    {
        for (int i = 0; i < X[0].size() + 1; i++) // X[0].size() + 1 -> I am using +1 to add the bias term
        {
            m_w.push_back(0); // Setting each weight to 0 and making the size of the vector
            // The same as the number of features (X[0].size()) + 1 for the bias term
        }
        for (int i = 0; i < m_epochs; i++) // Iterating through each epoch
        {
            for (int j = 0; j < X.size(); j++) // Iterating though each vector in our training Matrix
            {
                float update = m_eta * (y[j] - predict(X[j])); //we calculate the change for the weights
                for (int w = 1; w < m_w.size(); w++){ m_w[w] += update * X[j][w - 1]; } // we update each weight by the update * the training sample
                m_w[0] = update; // We update the Bias term and setting it equal to the update
            }
        }
    }
    

    所以基本上就是这样。只有3个函数,我们现在有一个工作感知器类,我们可以使用它来进行预测!

    如果您想复制粘贴代码并试用它。这是整个类(我添加了一些额外的功能,例如打印权重向量和每个时期的错误,以及添加导入/导出权重的选项。)

    以下是代码:

    班级标题:

    class perceptron
    {
    public:
        perceptron(float eta,int epochs);
        float netInput(vector<float> X);
        int predict(vector<float> X);
        void fit(vector< vector<float> > X, vector<float> y);
        void printErrors();
        void exportWeights(string filename);
        void importWeights(string filename);
        void printWeights();
    private:
        float m_eta;
        int m_epochs;
        vector < float > m_w;
        vector < float > m_errors;
    };
    

    带有函数的类.cpp文件:

    perceptron::perceptron(float eta, int epochs)
    {
        m_epochs = epochs;
        m_eta = eta;
    }
    
    void perceptron::fit(vector< vector<float> > X, vector<float> y)
    {
        for (int i = 0; i < X[0].size() + 1; i++) // X[0].size() + 1 -> I am using +1 to add the bias term
        {
            m_w.push_back(0);
        }
        for (int i = 0; i < m_epochs; i++)
        {
            int errors = 0;
            for (int j = 0; j < X.size(); j++)
            {
                float update = m_eta * (y[j] - predict(X[j]));
                for (int w = 1; w < m_w.size(); w++){ m_w[w] += update * X[j][w - 1]; }
                m_w[0] = update;
                errors += update != 0 ? 1 : 0;
            }
            m_errors.push_back(errors);
        }
    }
    
    float perceptron::netInput(vector<float> X)
    {
        // Sum(Vector of weights * Input vector) + bias
        float probabilities = m_w[0];
        for (int i = 0; i < X.size(); i++)
        {
            probabilities += X[i] * m_w[i + 1];
        }
        return probabilities;
    }
    
    int perceptron::predict(vector<float> X)
    {
        return netInput(X) > 0 ? 1 : -1; //Step Function
    }
    
    void perceptron::printErrors()
    {
        printVector(m_errors);
    }
    
    void perceptron::exportWeights(string filename)
    {
        ofstream outFile;
        outFile.open(filename);
    
        for (int i = 0; i < m_w.size(); i++)
        {
            outFile << m_w[i] << endl;
        }
    
        outFile.close();
    }
    
    void perceptron::importWeights(string filename)
    {
        ifstream inFile;
        inFile.open(filename);
    
        for (int i = 0; i < m_w.size(); i++)
        {
            inFile >> m_w[i];
        }
    }
    
    void perceptron::printWeights()
    {
        cout << "weights: ";
        for (int i = 0; i < m_w.size(); i++)
        {
            cout << m_w[i] << " ";
        }
        cout << endl;
    }
    

    此外,如果您想尝试一个示例,这是我做的一个例子:

    main.cpp中:

    #include <iostream>
    #include <vector>
    #include <algorithm>
    #include <fstream>
    #include <string>
    #include <math.h> 
    
    #include "MachineLearning.h"
    
    using namespace std;
    using namespace MachineLearning;
    
    vector< vector<float> > getIrisX();
    vector<float> getIrisy();
    
    int main()
    {
        vector< vector<float> > X = getIrisX();
        vector<float> y = getIrisy();
        vector<float> test1;
        test1.push_back(5.0);
        test1.push_back(3.3);
        test1.push_back(1.4);
        test1.push_back(0.2);
    
        vector<float> test2;
        test2.push_back(6.0);
        test2.push_back(2.2);
        test2.push_back(5.0);
        test2.push_back(1.5);
        //printVector(X);
        //for (int i = 0; i < y.size(); i++){ cout << y[i] << " "; }cout << endl;
    
        perceptron clf(0.1, 14);
        clf.fit(X, y);
        clf.printErrors();
        cout << "Now Predicting: 5.0,3.3,1.4,0.2(CorrectClass=-1,Iris-setosa) -> " << clf.predict(test1) << endl;
        cout << "Now Predicting: 6.0,2.2,5.0,1.5(CorrectClass=1,Iris-virginica) -> " << clf.predict(test2) << endl;
    
        system("PAUSE");
        return 0;
    }
    
    vector<float> getIrisy()
    {
        vector<float> y;
    
        ifstream inFile;
        inFile.open("y.data");
        string sampleClass;
        for (int i = 0; i < 100; i++)
        {
            inFile >> sampleClass;
            if (sampleClass == "Iris-setosa")
            {
                y.push_back(-1);
            }
            else
            {
                y.push_back(1);
            }
        }
    
        return y;
    }
    
    vector< vector<float> > getIrisX()
    {
        ifstream af;
        ifstream bf;
        ifstream cf;
        ifstream df;
        af.open("a.data");
        bf.open("b.data");
        cf.open("c.data");
        df.open("d.data");
    
        vector< vector<float> > X;
    
        for (int i = 0; i < 100; i++)
        {
            char scrap;
            int scrapN;
            af >> scrapN;
            bf >> scrapN;
            cf >> scrapN;
            df >> scrapN;
    
            af >> scrap;
            bf >> scrap;
            cf >> scrap;
            df >> scrap;
            float a, b, c, d;
            af >> a;
            bf >> b;
            cf >> c;
            df >> d;
            X.push_back(vector < float > {a, b, c, d});
        }
    
        af.close();
        bf.close();
        cf.close();
        df.close();
    
        return X;
    }
    

    我导入虹膜数据集的方式并不理想,但我只想要一些有用的东西。

    可以找到数据文件here.

    我希望你发现这有用!

    注意:上面的代码仅作为示例。正如juzzlin所指出的那样,使用const vector<float> &X并且通常通过引用传递vector / vector<vector>对象非常重要,因为数据可能非常大并且按值传递将生成副本它(效率低下)。

答案 2 :(得分:6)

对我而言,就像你正在努力使用backprop,你上面描述的内容并不完全符合我理解它的工作原理,你的描述有点含糊不清。

您计算输出误差项以反向传播为预测值与实际值之间的差异乘以传递函数的导数。然后是您向后传播的错误值。 sigmoid的导数非常简单地计算为y(1-y),其中y是您的输出值。网上有很多证据可供使用。

对于内层上的节点,将该输出误差乘以两个节点之间的权重,并将所有这些乘积相加作为外层传播到内层节点的总误差。然后将与内部节点相关联的误差乘以应用于原始输出值的传递函数的导数。这是一些伪代码:

total_error = sum(output_errors * weights)
node_error = sigmoid_derivative(node_output) * total_error

然后以相同的方式向后传播此错误,直到输入图层权重。

使用这些误差项和节点的输出值

调整权重
weight_change = outer_error * inner_output_value

学习率很重要,因为计算输入数据中每个模式/行/观察的权重变化。您希望调整每行的权重更改,以便权重不会被任何单行进行过度更改,因此所有行都会对权重产生影响。学习率可以为您提供,并通过乘以它来调整体重变化

weight_change = outer_error * inner_output_value * learning_rate

在纪元(迭代)之间记住这些变化并将其中一小部分添加到变化中也是正常的。添加的分数称为动量,可以加速你通过误差表面的区域,在那里没有太大的变化,并且在有细节的地方减速。

weight_change = (outer_error*inner_output_value*learning_rate) + (last_change*momentum)

随着训练的进行,有一些算法可以调整学习率和动量。

然后通过添加更改

来更新权重
new_weight = old_weight + weight_change

我查看了你的代码,但没有更正它并发布我觉得最好为你描述一个支持,这样你就可以自己编写代码了。如果您了解它,您也可以根据自己的情况调整它。

HTH祝你好运。

答案 3 :(得分:4)

这个开源代码怎么样?它定义了一个简单的1个隐藏层网(2个输入,2个隐藏,1个输出)并解决了XOR问题:

http://www.sylbarth.com/mlp.php

答案 4 :(得分:2)

关于一个简单的函数逼近网络(如预测和拟合正弦函数的那个​​)呢?另外,我认为,在实现过程中避免上课是轻松掌握基础知识的必要条件。让我们考虑一个隐藏层网络。

//Had a lot of trouble with shuffle

#include <iostream>
#include<vector>
#include <list>
#include <cstdlib>
#include <math.h>

#define PI 3.141592653589793238463
#define N

#define epsilon 0.1
#define epoch 2000

using namespace std;
// Just for GNU Plot issues
extern "C" FILE *popen(const char *command, const char *mode);

// Defining activation functions
//double sigmoid(double x) { return 1.0f / (1.0f + exp(-x)); }
//double dsigmoid(double x) { return x * (1.0f - x); }
double tanh(double x) { return (exp(x)-exp(-x))/(exp(x)+exp(-x)) ;}
double dtanh(double x) {return 1.0f - x*x ;}

double lin(double x) { return x;}
double dlin(double x) { return 1.0f;}

double init_weight() { return (2*rand()/RAND_MAX -1); }
double MAXX = -9999999999999999; //maximum value of input example

// Network Configuration
static const int numInputs = 1;
static const int numHiddenNodes = 7;
static const int numOutputs = 1;

// Learning Rate
const double lr = 0.05f;

double hiddenLayer[numHiddenNodes];
double outputLayer[numOutputs];

double hiddenLayerBias[numHiddenNodes];
double outputLayerBias[numOutputs];

double hiddenWeights[numInputs][numHiddenNodes];
double outputWeights[numHiddenNodes][numOutputs];

static const int numTrainingSets = 50;
double training_inputs[numTrainingSets][numInputs];
double training_outputs[numTrainingSets][numOutputs];

// Shuffling the data with each epoch
void shuffle(int *array, size_t n)
{
    if (n > 1) //If no. of training examples > 1
    {
        size_t i;
        for (i = 0; i < n - 1; i++)
        {
            size_t j = i + rand() / (RAND_MAX / (n - i) + 1);
            int t = array[j];
            array[j] = array[i];
            array[i] = t;
        }
    }
}

// Forward Propagation. Only used after training is done.
void predict(double test_sample[])
{
    for (int j=0; j<numHiddenNodes; j++)
    {
        double activation=hiddenLayerBias[j];
        for (int k=0; k<numInputs; k++)
        {
            activation+=test_sample[k]*hiddenWeights[k][j];
        }
        hiddenLayer[j] = tanh(activation);
    }

    for (int j=0; j<numOutputs; j++)
    {
        double activation=outputLayerBias[j];
        for (int k=0; k<numHiddenNodes; k++)
        {
            activation+=hiddenLayer[k]*outputWeights[k][j];
        }
        outputLayer[j] = lin(activation);
    }
    //std::cout<<outputLayer[0]<<"\n";
    //return outputLayer[0];
    //std::cout << "Input:" << training_inputs[i][0] << " " << training_inputs[i][1] << "    Output:" << outputLayer[0] << "    Expected Output: " << training_outputs[i][0] << "\n";
}

int main(int argc, const char * argv[])
{
    ///TRAINING DATA GENERATION
    for (int i = 0; i < numTrainingSets; i++)
    {
        double p = (2*PI*(double)i/numTrainingSets);
        training_inputs[i][0] = (p);
        training_outputs[i][0] = sin(p);

        ///FINDING NORMALIZING FACTOR
        for(int m=0; m<numInputs; ++m)
            if(MAXX < training_inputs[i][m])
                MAXX = training_inputs[i][m];
        for(int m=0; m<numOutputs; ++m)
            if(MAXX < training_outputs[i][m])
                MAXX = training_outputs[i][m];

    }

    ///NORMALIZING
    for (int i = 0; i < numTrainingSets; i++)
    {
        for(int m=0; m<numInputs; ++m)
            training_inputs[i][m] /= 1.0f*MAXX;

        for(int m=0; m<numOutputs; ++m)
            training_outputs[i][m] /= 1.0f*MAXX;

        cout<<"In: "<<training_inputs[i][0]<<"  out: "<<training_outputs[i][0]<<endl;
    }
    ///WEIGHT & BIAS INITIALIZATION
    for (int i=0; i<numInputs; i++) {
        for (int j=0; j<numHiddenNodes; j++) {
            hiddenWeights[i][j] = init_weight();
        }
    }
    for (int i=0; i<numHiddenNodes; i++) {
        hiddenLayerBias[i] = init_weight();
        for (int j=0; j<numOutputs; j++) {
            outputWeights[i][j] = init_weight();
        }
    }
    for (int i=0; i<numOutputs; i++) {
        //outputLayerBias[i] = init_weight();
        outputLayerBias[i] = 0;
    }

    ///FOR INDEX SHUFFLING
    int trainingSetOrder[numTrainingSets];
    for(int j=0; j<numInputs; ++j)
        trainingSetOrder[j] = j;


    ///TRAINING
    //std::cout<<"start train\n";
    vector<double> performance, epo; ///STORE MSE, EPOCH
    for (int n=0; n < epoch; n++)
    {
        double MSE = 0;
        shuffle(trainingSetOrder,numTrainingSets);
        std::cout<<"epoch :"<<n<<"\n";
        for (int i=0; i<numTrainingSets; i++)
        {
            //int i = trainingSetOrder[x];
            int x=i;
            //std::cout<<"Training Set :"<<x<<"\n";
            /// Forward pass
            for (int j=0; j<numHiddenNodes; j++)
            {
                double activation=hiddenLayerBias[j];
                //std::cout<<"Training Set :"<<x<<"\n";
                 for (int k=0; k<numInputs; k++) {
                    activation+=training_inputs[x][k]*hiddenWeights[k][j];
                }
                hiddenLayer[j] = tanh(activation);
            }

            for (int j=0; j<numOutputs; j++) {
                double activation=outputLayerBias[j];
                for (int k=0; k<numHiddenNodes; k++)
                {
                    activation+=hiddenLayer[k]*outputWeights[k][j];
                }
                outputLayer[j] = lin(activation);
            }

            //std::cout << "Input:" << training_inputs[x][0] << " " << "    Output:" << outputLayer[0] << "    Expected Output: " << training_outputs[x][0] << "\n";
            for(int k=0; k<numOutputs; ++k)
                MSE += (1.0f/numOutputs)*pow( training_outputs[x][k] - outputLayer[k], 2);

           /// Backprop
           ///   For V
            double deltaOutput[numOutputs];
            for (int j=0; j<numOutputs; j++) {
                double errorOutput = (training_outputs[i][j]-outputLayer[j]);
                deltaOutput[j] = errorOutput*dlin(outputLayer[j]);
            }

            ///   For W
            double deltaHidden[numHiddenNodes];
            for (int j=0; j<numHiddenNodes; j++) {
                double errorHidden = 0.0f;
                for(int k=0; k<numOutputs; k++) {
                    errorHidden+=deltaOutput[k]*outputWeights[j][k];
                }
                deltaHidden[j] = errorHidden*dtanh(hiddenLayer[j]);
            }

            ///Updation
            ///   For V and b
            for (int j=0; j<numOutputs; j++) {
                //b
                outputLayerBias[j] += deltaOutput[j]*lr;
                for (int k=0; k<numHiddenNodes; k++)
                {
                    outputWeights[k][j]+= hiddenLayer[k]*deltaOutput[j]*lr;
                }
            }

            ///   For W and c
            for (int j=0; j<numHiddenNodes; j++) {
                //c
                hiddenLayerBias[j] += deltaHidden[j]*lr;
                //W
                for(int k=0; k<numInputs; k++) {
                  hiddenWeights[k][j]+=training_inputs[i][k]*deltaHidden[j]*lr;
                }
            }
        }
        //Averaging the MSE
        MSE /= 1.0f*numTrainingSets;
        //cout<< "  MSE: "<< MSE<<endl;
        ///Steps to PLOT PERFORMANCE PER EPOCH
        performance.push_back(MSE*100);
        epo.push_back(n);
    }

    // Print weights
    std::cout << "Final Hidden Weights\n[ ";
    for (int j=0; j<numHiddenNodes; j++) {
        std::cout << "[ ";
        for(int k=0; k<numInputs; k++) {
            std::cout << hiddenWeights[k][j] << " ";
        }
        std::cout << "] ";
    }
    std::cout << "]\n";

    std::cout << "Final Hidden Biases\n[ ";
    for (int j=0; j<numHiddenNodes; j++) {
        std::cout << hiddenLayerBias[j] << " ";

    }
    std::cout << "]\n";
    std::cout << "Final Output Weights";
    for (int j=0; j<numOutputs; j++) {
        std::cout << "[ ";
        for (int k=0; k<numHiddenNodes; k++) {
            std::cout << outputWeights[k][j] << " ";
        }
        std::cout << "]\n";
    }
    std::cout << "Final Output Biases\n[ ";
    for (int j=0; j<numOutputs; j++) {
        std::cout << outputLayerBias[j] << " ";
    }
    std::cout << "]\n";


    /* This part is just for plotting the results.
       This requires installing GNU Plot. You can also comment it out.
    */
    //Plot the results
    vector<float> x;
    vector<float> y1, y2;
    //double test_input[1000][numInputs];
    int numTestSets = numTrainingSets;
    for (float i = 0; i < numTestSets; i=i+0.25)
    {
        double p = (2*PI*(double)i/numTestSets);
        x.push_back(p);
        y1.push_back(sin(p));
        double test_input[1];
        test_input[0] = p/MAXX;
        predict(test_input);
        y2.push_back(outputLayer[0]*MAXX);
    }

    FILE * gp = popen("gnuplot", "w");
    fprintf(gp, "set terminal wxt size 600,400 \n");
    fprintf(gp, "set grid \n");
    fprintf(gp, "set title '%s' \n", "f(x) = x sin (x)");
    fprintf(gp, "set style line 1 lt 3 pt 7 ps 0.1 lc rgb 'green' lw 1 \n");
    fprintf(gp, "set style line 2 lt 3 pt 7 ps 0.1 lc rgb 'red' lw 1 \n");
    fprintf(gp, "plot '-' w p ls 1, '-' w p ls 2 \n");

    ///Exact f(x) = sin(x) -> Green Graph
    for (int k = 0; k < x.size(); k++) {
        fprintf(gp, "%f %f \n", x[k], y1[k]);
    }
    fprintf(gp, "e\n");

    ///Neural Network Approximate f(x) = xsin(x) -> Red Graph
    for (int k = 0; k < x.size(); k++) {
        fprintf(gp, "%f %f \n", x[k], y2[k]);
    }
    fprintf(gp, "e\n");

    fflush(gp);
    ///FILE POINTER FOR SECOND PLOT (PERFORMANCE GRAPH)
    FILE * gp1 = popen("gnuplot", "w");
    fprintf(gp1, "set terminal wxt size 600,400 \n");
    fprintf(gp1, "set grid \n");
    fprintf(gp1, "set title '%s' \n", "Performance");
    fprintf(gp1, "set style line 1 lt 3 pt 7 ps 0.1 lc rgb 'green' lw 1 \n");
    fprintf(gp1, "set style line 2 lt 3 pt 7 ps 0.1 lc rgb 'red' lw 1 \n");
    fprintf(gp1, "plot '-' w p ls 1 \n");

    for (int k = 0; k < epo.size(); k++) {
        fprintf(gp1, "%f %f \n", epo[k], performance[k]);
    }
    fprintf(gp1, "e\n");

    fflush(gp1);

    system("pause");
    //_pclose(gp);

    return 0;
}

我也一直在尝试学习简单的(浅)神经网络,同时避免使用任何高级工具。我试图在repository上保持一些学习。