我对机器学习很陌生,看完一些视频后我想确保理解一些概念:
在线性回归方面,我们可以使用以下几种方法找到截距和系数:梯度下降,正态方程和最小二乘。
然后,为了测量从上面步骤得出的假设函数的准确性,我们可以使用诸如R-Square或Square Error之类的方法。
当涉及正则化时 - 我们可以使用岭回归(例如)来找到系数和截距,以帮助我们消除过度拟合。 在应用岭回归之后,当我们得到一些0的系数时,这意味着它们对我们的数据不是“那么关键”,因此我们可以简单地将它们从我们的假设函数中删除。
所有这些陈述都是正确的吗? 谢谢!
答案 0 :(得分:1)
一切正确。对你的修辞略有修改:
当我们得到一些0的系数时,这意味着它们对我们的数据不是“那么关键”,因此我们可以简单地从我们的假设函数中删除相应的特征。