numpy.linalg.lstsq和sklearn.linear_model.LinearRegression之间的区别

时间:2016-04-12 12:18:26

标签: python numpy scipy scikit-learn linear-regression

据我了解,numpy.linalg.lstsqsklearn.linear_model.LinearRegression都会查找线性系统x的解Ax = y,以最小化剩余金额||Ax - y||

但是他们没有给出相同的结果:

from sklearn import linear_model
import numpy as np

A = np.array([[1, 0], [0, 1]])
b = np.array([1, 0])
x , _, _, _ = np.linalg.lstsq(A,b)
x

Out[1]: array([ 1.,  0.])

clf = linear_model.LinearRegression()
clf.fit(A, b)                              
coef = clf.coef_
coef

Out[2]: array([ 0.5, -0.5])

我在俯瞰什么?

1 个答案:

答案 0 :(得分:1)

它们都由LPACK gelsd实施。

不同之处在于linear_model.LinearRegression将对输入X(您的A)执行以下数据预处理(默认)。但是np.linalg.lstsq没有。您可以参考the source code of LinearRegression了解有关数据预处理的更多详细信息。

X = (X - X_offset) / X_scale

如果您不想进行数据预处理,则应设置fit_intercept=False

简单来说,如果您在线性回归之前对输入进行标准化,则linear_model.LinearRegressionnp.linalg.lstsq的结果将如下所示。

# Normalization/Scaling
from sklearn.preprocessing import StandardScaler
A = np.array([[1, 0], [0, 1]])
X_scaler = StandardScaler()
A = X_scaler.fit_transform(A)

现在A是array([[ 1., -1.],[-1., 1.]])

from sklearn import linear_model
import numpy as np

b = np.array([1, 0])
x , _, _, _ = np.linalg.lstsq(A,b)
x
Out[1]: array([ 0.25, -0.25])

clf = linear_model.LinearRegression()
clf.fit(A, b)                              
coef = clf.coef_
coef

Out[2]: array([ 0.25, -0.25])