线性回归的梯度下降找不到最佳参数

时间:2019-04-07 15:33:15

标签: algorithm matlab machine-learning gradient-descent

我正在尝试实现梯度下降算法,以遵循吴安德(Andrew Ng)课程中拍摄的以下图像,使一条直线适合嘈杂的数据。

enter image description here

首先,我要声明要适合的嘈杂直线:

xrange =(-10:0.1:10); % data lenght
ydata  = 2*(xrange)+5; % data with gradient 2, intercept 5
plot(xrange,ydata); grid on;
noise  = (2*randn(1,length(xrange))); % generating noise 
target = ydata + noise; % adding noise to data
figure; scatter(xrange,target); grid on; hold on; % plot a sctter

然后我初始化两个参数,目标函数历史如下:

tita0 = 0 %intercept (randomised)
tita1 = 0 %gradient  (randomised)

% Initialize Objective Function History
J_history = zeros(num_iters, 1);

% Number of training examples
m = (length(xrange));

我继续编写梯度下降算法:

for iter = 1:num_iters

    h = tita0 + tita1.*xrange; % building the estimated 

    %c = (1/(2*length(xrange)))*sum((h-target).^2)

    temp0 = tita0 - alpha*((1/m)*sum((h-target)));
    temp1 = tita1 - alpha*((1/m)*sum((h-target))).*xrange;
    tita0 = temp0;
    tita1 = temp1;

    J_history(iter) = (1/(2*m))*sum((h-target).^2); % Calculating cost from data to estimate

end

最后但并非最不重要的情节。我正在使用MATLAB的内置polyfit函数来测试我的拟合的准确性。

% print theta to screen
fprintf('Theta found by gradient descent: %f %f\n',tita0,  tita1(end));
fprintf('Minimum of objective function is %f \n',J_history(num_iters));

%Plot the linear fit
hold on; % keep previous plot visibledesg
plot(xrange, tita0+xrange*tita1(end), '-'); title(sprintf('Cost is %g',J_history(num_iters))); % plotting line on scatter

% Validate with polyfit fnc
poly_theta = polyfit(xrange,ydata,1);
plot(xrange, poly_theta(1)*xrange+poly_theta(2), 'y--');
legend('Training data', 'Linear regression','Linear regression with polyfit')
hold off 

结果:

enter image description here

可以看出,我的线性回归一点也不好。似乎两个参数(y截距和渐变)都没有收敛到最优解。

任何有关我在实现中可能做错事情的建议将不胜感激。我似乎无法理解我的解决方案与上面显示的方程式有何不同。谢谢!

2 个答案:

答案 0 :(得分:2)

您对theta_1的实现不正确。 Ng的方程也在x上求和。您拥有theta_0和theta_1的功能是

temp0 = tita0 - alpha*((1/m)*sum((h-target)));
temp1 = tita1 - alpha*((1/m)*sum((h-target))).*xrange;

请注意,sum((h-target))出现在两个公式中。在求和之前,您需要将x的第一个乘以。我不是MatLab程序员,所以我无法修复您的代码。

在不正确的实现方式中您正在做的事情的大局面是,您将截距和斜率的预测值沿同一方向推,因为更改总是与sum((h-target))成比例。那不是梯度下降的工作方式。

答案 1 :(得分:1)

按以下步骤更改tita1的更新规则:

temp1 = tita1 - alpha*((1/m)*sum((h-target).*xrange));

另外,还有一句话是您确实不需要临时变量。

通过设置

num_iters = 100000
alpha = 0.001

我可以康复

octave:152> tita0
tita0 =  5.0824
octave:153> tita1
tita1 =  2.0085