我正在尝试在sklearn中调整我的Logistic回归模型。我使用F分数来验证模型分数。这是主要思想:
RawDatagramSocket
此外,我尝试保留唯一支持clf = LogisticRegression()
parameters = {
'solver': ['newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'],
'max_iter': [100, 200, 300],
'C': [0.001, 0.01, 0.1, 1, 10, 100, 1000]
}
scorer = make_scorer(fbeta_score, beta=2)
grid_obj = GridSearchCV(clf, parameters, scoring=scorer, verbose=True)
和l1
惩罚的求解器。
最后,我得到了结果:
l2
似乎默认的模型设置可以提供最佳结果。我承认可能是这样。但是我正在寻找任何解释,为什么会这样?是否有任何论文或文章可以为您提供更多的见解,并解释为什么从火车数据集中获得的一些证据不能证明您的Logistic回归模型表现更好?