sklearn LogisticRegression证明无法改进模型

时间:2019-04-18 12:26:18

标签: python scikit-learn dataset data-science logistic-regression

我正在尝试在sklearn中调整我的Logistic回归模型。我使用F分数来验证模型分数。这是主要思想:

RawDatagramSocket

此外,我尝试保留唯一支持clf = LogisticRegression() parameters = { 'solver': ['newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'], 'max_iter': [100, 200, 300], 'C': [0.001, 0.01, 0.1, 1, 10, 100, 1000] } scorer = make_scorer(fbeta_score, beta=2) grid_obj = GridSearchCV(clf, parameters, scoring=scorer, verbose=True) l1惩罚的求解器。
最后,我得到了结果:

l2

似乎默认的模型设置可以提供最佳结果。我承认可能是这样。但是我正在寻找任何解释,为什么会这样?是否有任何论文或文章可以为您提供更多的见解,并解释为什么从火车数据集中获得的一些证据不能证明您的Logistic回归模型表现更好?

0 个答案:

没有答案