据我了解,numpy.linalg.lstsq
和sklearn.linear_model.LinearRegression
都会查找线性系统x
的解Ax = y
,以最小化剩余金额||Ax - y||
。
但是他们没有给出相同的结果:
from sklearn import linear_model
import numpy as np
A = np.array([[1, 0], [0, 1]])
b = np.array([1, 0])
x , _, _, _ = np.linalg.lstsq(A,b)
x
Out[1]: array([ 1., 0.])
clf = linear_model.LinearRegression()
clf.fit(A, b)
coef = clf.coef_
coef
Out[2]: array([ 0.5, -0.5])
我在俯瞰什么?
答案 0 :(得分:1)
它们都由LPACK gelsd实施。
不同之处在于linear_model.LinearRegression
将对输入X(您的A)执行以下数据预处理(默认)。但是np.linalg.lstsq
没有。您可以参考the source code of LinearRegression了解有关数据预处理的更多详细信息。
X = (X - X_offset) / X_scale
如果您不想进行数据预处理,则应设置fit_intercept=False
。
简单来说,如果您在线性回归之前对输入进行标准化,则linear_model.LinearRegression
和np.linalg.lstsq
的结果将如下所示。
# Normalization/Scaling
from sklearn.preprocessing import StandardScaler
A = np.array([[1, 0], [0, 1]])
X_scaler = StandardScaler()
A = X_scaler.fit_transform(A)
现在A是array([[ 1., -1.],[-1., 1.]])
from sklearn import linear_model
import numpy as np
b = np.array([1, 0])
x , _, _, _ = np.linalg.lstsq(A,b)
x
Out[1]: array([ 0.25, -0.25])
clf = linear_model.LinearRegression()
clf.fit(A, b)
coef = clf.coef_
coef
Out[2]: array([ 0.25, -0.25])