Sklearn 和 StatsModels 给出了截然不同的逻辑回归答案

时间:2021-03-27 11:33:56

标签: python scikit-learn logistic-regression statsmodels

我正在对一个布尔值 0/1 的数据集进行逻辑回归(预测某个年龄给你一定数量的薪水的概率),我用 sklearn 和 StatsModels 得到了非常不同的结果,其中 sklearn 非常

我已将 sklearn 惩罚设置为 None 并将截取项设置为 false 以使函数更类似于 StatsModels,但我不知道如何让 sklearn 给出合理的答案。

灰线是 0 或 1 处的原始数据点,我只是将绘图上的 1 缩小到 0.1 以使其可见。

变量:

# X and Y
X = df.age.values.reshape(-1,1)
X_poly = PolynomialFeatures(degree=4).fit_transform(X)
y_bool = np.array(df.wage.values > 250, dtype = "int")

# Generate a sequence of ages
age_grid = np.arange(X.min(), X.max()).reshape(-1,1)
age_grid_poly =  PolynomialFeatures(degree=4).fit_transform(age_grid)

代码如下:

# sklearn Model
clf = LogisticRegression(penalty = None, fit_intercept = False,max_iter = 300).fit(X=X_poly, y=y_bool)
preds = clf.predict_proba(age_grid_poly)

# Plot
fig, ax = plt.subplots(figsize=(8,6))
ax.scatter(X ,y_bool/10, s=30, c='grey', marker='|', alpha=0.7)
plt.plot(age_grid, preds[:,1], color = 'r', alpha = 1)
plt.xlabel('Age')
plt.ylabel('Wage')
plt.show()

sklearn result

# StatsModels
log_reg = sm.Logit(y_bool, X_poly).fit()
preds = log_reg.predict(age_grid_poly)
# Plot
fig, ax = plt.subplots(figsize=(8,6))
ax.scatter(X ,y_bool/10, s=30, c='grey', marker='|', alpha=0.7)
plt.plot(age_grid, preds, color = 'r', alpha = 1)
plt.xlabel('Age')
plt.ylabel('Wage')
plt.show()

StatsModels result

2 个答案:

答案 0 :(得分:4)

一旦我没有数据集或 scikit-learn 和 statsmodels 的特定版本,我就无法准确地重现结果。但是,我认为您无法成功删除代码中的正则化参数。文档指出您应该传递字符串 'none',而不是常量 None

请参阅 sklearn.linear_model.LogisticRegression 文档:

<块引用>

penalty{‘l1’, ‘l2’, ‘elasticnet’, ‘none’}, default='l2' 用于 指定惩罚中使用的规范。 ‘newton-cg’、‘sag’和 “lbfgs”求解器仅支持 l2 惩罚。 “弹性网”只是 由“传奇”求解器支持。如果“无”(不支持 liblinear 求解器),不应用正则化。

我认为通过调查系数而不是使用绘图更容易理解差异。 您可以使用 scikit-learn 模型的属性 coef_ 和 statsmodels 模型的 params 直接调查它。

从逻辑上讲,如果未正确禁用正则化参数,您应该期望 scikit-learn 模型中的系数较低。

答案 1 :(得分:4)

这似乎是因为 sklearn 的实现非常依赖于比例(并且多项式项非常大)。通过先缩放数据,我得到了定性相同的结果。

# sklearn Model
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline

clf = Pipeline([
    ('scale', StandardScaler()),
    ('lr', LogisticRegression(penalty='none', fit_intercept=True, max_iter=1000)),
]).fit(X=X_poly, y=y_bool)
preds = clf.predict_proba(age_grid_poly)

# Plot
fig, ax = plt.subplots(figsize=(8,6))
ax.scatter(X ,y_bool/10, s=30, c='grey', marker='|', alpha=0.7)
plt.plot(age_grid, preds[:,1], color = 'r', alpha = 1)
plt.xlabel('Age')
plt.ylabel('Wage')
plt.show()

请注意,在这种情况下,我们需要设置 fit_intercept=True,因为 StandardScaler 会杀死来自 PolynomialFeatures 的常量列(使其全为零)。

相关问题