在sklearn LogisticRegression函数中如何计算L2(岭)罚分?

时间:2019-08-26 13:53:45

标签: python-3.x logistic-regression sklearn-pandas

例如,在Python中对我的数据执行以下逻辑回归模型时。 。

### Logistic regression with ridge penalty (L2) ###
from sklearn.linear_model import LogisticRegression
log_reg_l2_sag = LogisticRegression(penalty='l2', solver='sag', n_jobs=-1)
log_reg_l2_sag.fit(xtrain, ytrain)

我没有指定岭惩罚值的范围。最佳岭惩罚是通过公式明确计算得出的(就像使用普通最小二乘方岭回归所做的那样),还是从惩罚值的默认范围中选择了最佳惩罚?文档尚不清楚。

1 个答案:

答案 0 :(得分:1)

据我了解您的问题。您想知道在逻辑回归的情况下“ L2”正则化如何工作。就像如何找到最佳值。 我们此处未提供[0.0001,0.01]这样的网格,因为使用LogisticRegression的“求解器”参数可以找到最佳值。 在您的情况下,求解器是随机平均梯度下降,它可以找到L2正则化的最佳值。 L2正则化将保留所有列,使最不重要参数的系数保持接近0。