多项式回归的法线方程和梯度下降之间有什么区别

时间:2018-08-01 03:20:03

标签: machine-learning linear-regression

我是机器学习的新手,并且愿意学习和使用机器学习。只是我仍然不明白在某些情况下使用法线方程与梯度下降相比的好处。我在Coursera上使用了Andrew Ng的课程,但是这种记法确实使我很难理解。

我想了解有关多项式回归的成本函数J(ō)的推导以及他使用向量x(i)的转置的原因

1 个答案:

答案 0 :(得分:0)

在不需要选择alpha的情况下,Normal Equation很有用。而且,它是一种非迭代算法,因此您将能够在更短的时间内(仅当特征数量较少时)最小化成本函数。

因为正态方程可以处理矩阵及其逆矩阵,所以在特征数量较大的情况下,与梯度下降法相比,它是一种计算量较大的方法。

有关多项式回归的成本函数的推导,请参见以下链接: Cost function for Polynomial regression