我使用两种方法计算了分类中P,R和F1的宏平均值。方法1是
print("Macro-Average Precision:", metrics.precision_score(predictions, test_y, average='macro'))
print("Macro-Average Recall:", metrics.recall_score(predictions, test_y, average='macro'))
print("Macro-Average F1:", metrics.f1_score(predictions, test_y, average='macro'))
给出此结果:
Macro-Average Precision: 0.6822
Macro-Average Recall: 0.7750
Macro-Average F1: 0.7094
方法2为:
print(classification_report(y_true, y_pred))
给出此结果:
precision recall f1-score support
0 0.55 0.25 0.34 356
1 0.92 0.96 0.94 4793
2 0.85 0.83 0.84 1047
accuracy 0.90 6196
macro avg 0.78 0.68 0.71 6196
weighted avg 0.89 0.90 0.89 6196
我希望这两种方法的输出是相同的,因为它们是在同一时间在同一运行中生成的。 有人可以解释为什么会这样,或者某处是否有错误吗?
答案 0 :(得分:0)
据我从classification_report结果可以看出,您有多个类。
如果您在指标模块中检查documentation中的单个功能,则默认参数会将类“ 1”视为默认的正类。
我认为可能会发生的是,在您的第一个计算中,它是一个对所有计算(0和2是负类,而1是正类)。在第二种情况下,您实际上是在考虑真正的多类情况。