神经网络-损失无法收敛

时间:2018-09-16 14:36:32

标签: python neural-network gradient-descent convergence

此网络包含一个输入层和一个输出层,没有非线性。输出只是输入的线性组合,我正在使用回归损失来训练网络。我根据简单的线性函数生成了一些随机的一维测试数据,并添加了高斯噪声。问题在于损失函数不会收敛到零。

import numpy as np
import matplotlib.pyplot as plt

n = 100
alp = 1e-4
a0 = np.random.randn(100,1) # Also x
y = 7*a0+3+np.random.normal(0,1,(100,1))

w = np.random.randn(100,100)*0.01
b = np.random.randn(100,1)

def compute_loss(a1,y,w,b):
       return np.sum(np.power(y-w*a1-b,2))/2/n

def gradient_step(w,b,a1,y):

    w -= (alp/n)*np.dot((a1-y),a1.transpose())
    b -= (alp/n)*(a1-y)  
    return w,b

loss_vec = []
num_iterations = 10000

for i in range(num_iterations):

    a1 = np.dot(w,a0)+b
    loss_vec.append(compute_loss(a1,y,w,b))
    w,b = gradient_step(w,b,a1,y)
plt.plot(loss_vec)

2 个答案:

答案 0 :(得分:1)

收敛程度还取决于您使用的alpha值。我用了您的代码,并为此

alp = 5e-3

我在对数x轴上绘制了以下收敛性

plt.semilogx(loss_vec)

输出

enter image description here

答案 1 :(得分:0)

如果我正确理解您的代码,尽管您有2层,但您只有一个权重矩阵和一个偏置矢量。这很奇怪,可能至少是您问题的一部分。

相关问题