为什么我在statsmodels和sklearn的logistic回归之间得到截然不同的结果

时间:2019-10-30 13:57:32

标签: python scikit-learn logistic-regression statsmodels

我知道这似乎是一个重复的问题,但是我已经完成了建议的here,但没有成功。我正在使用28个变量,其中一些是分类的,但是我删除了每个变量的类别之一。如我在旧问题中所述:

import statsmodels.api as sm
from sklearn.linear_model import LogisticRegression

logit = sm.Logit(y_train, X_train)

clf = LogisticRegression(C=1e8,fit_intercept=False)
clf.fit(X_train, y_train)

然后,当我检查结果时,在sm中,我的对数似然为-19661。在sklearn中,我的log_loss为1.9。在sm中,我的系数范围为-1.38至1.98。在sklearn中,它们的范围是-0.01到0.02。我需要我的结果更加相似,以便可以对我的结果进行一些推断。可能会发生什么?我想念什么?

谢谢。

0 个答案:

没有答案