理解分类报告:与混淆矩阵的差异

时间:2021-03-19 10:44:45

标签: python classification precision confusion-matrix

我训练了不同的算法,并打印了混淆矩阵和分类报告。我遇到的问题是如何根据混淆矩阵解释分类报告

下面的混淆矩阵显示了返回的真阳性和真阴性。观察时 在分类报告中,我看到 F 类的精度为 0.70,而为该类找到的更正句子数为 519,这与 M 类没有意义和相同。在我的情况下,值是否可能是倒置的?我使用 scikit 中给出的公式学习打印这些表格。如果有人能帮助我理解这两者(混淆和报告),可能 F 类报告中的精度不是我认为的那样,或者是模型的一般精度。

模型使用的是 GaussianNB()

cm = confusion_matrix(ylabels, y_pred)
print(cm)
print(classification_report(ylabels, y_pred))
                
confusion matrix: 
 [[ 519 1501]
 [ 219  840]]


              precision    recall  f1-score   support

           F       0.70      0.26      0.38      2020
           M       0.36      0.79      0.49      1059

    accuracy                           0.44      3079
   macro avg       0.53      0.53      0.44      3079
weighted avg       0.58      0.44      0.42      3079

0 个答案:

没有答案
相关问题