在我的机器学习课程中,我们学会了在使用许多机器学习模型来解释偏差时,为每个样本的特征向量附加1。例如,如果我们进行线性回归并且样本具有特征f_1,f_2,...,f_d,我们需要添加“假”特征值1以允许回归函数不必通过原点
使用sklearn模型时,您是否需要自己执行此操作,或者他们的实现是否为您执行此操作?具体来说,我对使用任何回归模型或SVM模型时是否有必要感兴趣。
答案 0 :(得分:0)
不,你不添加任何偏见,模型以自己的方式定义偏差。你在课程中学到的东西是通用的,虽然不是完美的 - 解决方案。这对于SVM这样的模型很重要,它不应该附加“1”,因为这种偏差会得到规范化,这对于SVM来说是完全错误的。因此,虽然这是一个很好的理论技巧,可以证明你实际上可以创建完全忽略偏见的方法,但在实践中 - 它通常以特定的方式处理,而scikit-learn会为你做。