梯度下降在线性回归中的作用是什么?

时间:2016-12-22 17:12:55

标签: machine-learning linear-regression gradient-descent

有人可以给我一个关于如何在线性回归中使用梯度下降的观点的高级别吗?我知道梯度下降基本上可以有效地找到局部最小值,但这实际上如何帮助形成数据回归?有人可以给我一个事件的顺序,其中线实际形成的数据点?我理解如何计算一个点的梯度,而不是如何实际上有助于更有效地形成线。

1 个答案:

答案 0 :(得分:2)

我在这里找到了一个可靠的答案:https://spin.atomicobject.com/2014/06/24/gradient-descent-linear-regression/

理解这一点的技巧是知道你必须计算y = mx + b的m和b值来开发一个成本函数,但这会给你一个最佳和最差拟合线的新数据集。然后使用渐变体面来基本找到包含线的实际m和b值的最低误差线。这个链接有一个非常好的图形(在我的非专业机器学习意见中)的错误图形看起来如何,如果你理解渐变体面,你可以看到它如何沿着图形向下移动以找到最低的错误。很抱歉在这个问题上大肆宣传,但希望它可以帮助其他一些刚接触机器学习的人!