我有一个Pandas DataFrame,它是3420行x 13列,在这里我试图预测标签“ FTR”为1或0。为此,我正在使用Scikit学习的LogisticRegression。我的问题是我的模型正确地预测了100%,这似乎是不正确的。我在下面有以下代码:
dataCopy = dataCopy[['FTHG', 'FTAG', 'FTR', 'HTGS', 'ATGS', 'HTGC', 'ATGC', 'HTP', 'ATP', 'HomeTeamLP', 'AwayTeamLP', 'MW', 'HTGD', 'ATGD', 'DiffPts', 'DiffFormPts', 'DiffLP']]
X_all = dataCopy.drop(['FTR'],axis=1)
y_all = dataCopy.FTR
X_train, X_test, y_train, y_test = train_test_split(X_all, y_all, test_size=0.3)
LogReg = LogisticRegression()
LogReg.fit(X_train, y_train)
y_pred = LogReg.predict(X_test)
print(classification_report(y_test, y_pred))
打印分类报告显示以下内容:
如果有人能告诉我为什么我获得100%的收益,因为这似乎不正确,我将不胜感激。
答案 0 :(得分:0)
您是否检查了逻辑回归权重?这是coef_
逻辑回归中的LogReg
属性。它可能会使用其中一个功能比其他功能做更多的预测。如果是这样,该功能是否合理地包含在培训中?
用给出的信息很难确切地诊断出发生了什么。