卷积神经网络未收敛

时间:2016-02-04 01:02:54

标签: c++ machine-learning neural-network deep-learning backpropagation

我一直在观看有关深度学习/卷积神经网络的视频,例如herehere,我试图在C ++中实现自己的视频。为了第一次尝试,我试着保持输入数据相当简单,所以想法是区分交叉和圆形,我有一个大约25个(64 * 64个图像)的小数据集,它们看起来像这样: / p>

Cross Circle

网络本身有五层:

Convolution (5 filters, size 3, stride 1, with a ReLU)
MaxPool (size 2) 
Convolution (1 filter, size 3, stride 1, with a ReLU)
MaxPool (size 2)
Linear Regression classifier

我的问题是我的网络没有任何融合。没有任何权重似乎发生变化。如果我运行它,预测大多保持不变,而不是偶尔的异常值,它会在下一次迭代返回之前跳起来。

卷积层训练看起来像这样,删除了一些循环以使其更清晰

// Yeah, I know I should change the shared_ptr<float>
void ConvolutionalNetwork::Train(std::shared_ptr<float> input,std::shared_ptr<float> outputGradients, float label)
{
    float biasGradient = 0.0f;

    // Calculate the deltas with respect to the input.
    for (int layer = 0; layer < m_Filters.size(); ++layer)
    {
        // Pseudo-code, each loop on it's own line in actual code
        For z < depth, x <width - filterSize, y < height -filterSize
        {               
            int newImageIndex = layer*m_OutputWidth*m_OutputHeight+y*m_OutputWidth + x;

            For the bounds of the filter (U,V)
            {
                // Find the index in the input image
                int imageIndex = x + (y+v)*m_OutputWidth + z*m_OutputHeight*m_OutputWidth;
                int kernelIndex = u +v*m_FilterSize + z*m_FilterSize*m_FilterSize;
                m_pGradients.get()[imageIndex] += outputGradients.get()[newImageIndex]*input.get()[imageIndex];
                m_GradientSum[layer].get()[kernelIndex] += m_pGradients.get()[imageIndex] * m_Filters[layer].get()[kernelIndex];

                biasGradient += m_GradientSum[layer].get()[kernelIndex];
            }       
        }
    }

    // Update the weights
    for (int layer = 0; layer < m_Filters.size(); ++layer)
    {
        For z < depth, U & V < filtersize
        {
            // Find the index in the input image
            int kernelIndex = u +v*m_FilterSize + z*m_FilterSize*m_FilterSize;
            m_Filters[layer].get()[kernelIndex] -= learningRate*m_GradientSum[layer].get()[kernelIndex];
        }
        m_pBiases.get()[layer] -= learningRate*biasGradient;
    }
}

因此,我创建了一个缓冲区(m_pGradients),它是输入缓冲区的尺寸,用于将渐变提供给上一层,但使用渐变和来调整权重。

最大池数会像这样计算渐变(它会保存最大索引并将所有其他渐变保存为零)

void MaxPooling::Train(std::shared_ptr<float> input,std::shared_ptr<float> outputGradients, float label)
{
    for (int outputVolumeIndex = 0; outputVolumeIndex <m_OutputVolumeSize; ++outputVolumeIndex)
    {
        int inputIndex = m_Indices.get()[outputVolumeIndex];
        m_pGradients.get()[inputIndex] = outputGradients.get()[outputVolumeIndex];
    }
}

最终回归图层计算其渐变:

void LinearClassifier::Train(std::shared_ptr<float> data,std::shared_ptr<float> output, float y)
{
    float * x  = data.get();

    float biasError = 0.0f;
    float h = Hypothesis(output) - y;

    for (int i =1; i < m_NumberOfWeights; ++i)
    {
        float error = h*x[i];
        m_pGradients.get()[i] = error;
        biasError += error;
    }

    float cost = h;
    m_Error = cost*cost;

    for (int theta = 1; theta < m_NumberOfWeights; ++theta)
    {
        m_pWeights.get()[theta] = m_pWeights.get()[theta] - learningRate*m_pGradients.get()[theta];
    }

    m_pWeights.get()[0] -= learningRate*biasError;
}

在对两个例子进行100次迭代训练之后,每个例子的预测与另一个相同,并且从一开始就没有变化。

  1. 像这样的卷积网络能够区分这两个类吗?
  2. 这是正确的方法吗?
  3. 我应该考虑卷积层反向传播中的ReLU(最大值)吗?

1 个答案:

答案 0 :(得分:5)

  
      
  1. 像这样的卷积网络能够区分这两个类吗?
  2.   

是。事实上,甚至线性分类器本身也应该能够非常容易地区分(如果图像或多或少地居中)。

  
      
  1. 这是正确的方法吗?
  2.   

最可能的原因是渐变公式中的错误。始终遵循2条简单的规则:

  1. 基本模型开始。不要从2-conv网络开始。在没有任何卷积的情况下启动代码。它现在有效吗?当您使用1个线性图层时,添加单个卷积。它现在有效吗?等等。
  2. 始终以数字方式检查您的渐变。这很容易做到,可以为你节省数小时的时间!从分析中回忆起

    [grad f(x) ]_i ~  (f(x+eps*e_i) - f(x-eps*e_i)) / 2*eps
    

    其中by [] _i我的意思是我的坐标,而e_i我的意思是我的规范矢量(零矢量,其中一个在第i个坐标上)

  3.   

    我应该考虑卷积层反向传播中的ReLU(最大值)吗?

    是的,ReLU会改变您的渐变,因为这是一个需要区分的非线性。再次 - 回到第1点。从简单模型开始,分别添加每个元素以找出导致渐变/模型崩溃的元素。