如何解释sklearn confusion_matrix函数中的labels参数?

时间:2019-01-10 13:31:14

标签: python machine-learning scikit-learn metrics

假设我有以下两组类别和一个包含目标名称的变量:

spam = ["blue", "white", "blue", "yellow", "red"]
flagged = ["blue", "white", "yellow", "blue", "red"]
target_names = ["blue", "white", "yellow", "red"]

当我如下使用confusion_matrix函数时,这是结果:

from sklearn.metrics import confusion_matrix
confusion_matrix(spam, flagged, labels=target_names)

[[1 0 1 0]
 [0 1 0 0]
 [1 0 0 0]
 [0 0 0 1]]

但是,当我给参数labels信息时,我只希望从“蓝色”中获取指标,就会得到以下结果:

confusion_matrix(spam, flagged, labels=["blue"])

array([[1]])

只有一个数字,我无法计算准确性,准确性,召回率等。 我在这里做错了什么?填入黄色,白色或蓝色将得到0、1和1。

1 个答案:

答案 0 :(得分:1)

  

但是,当我为参数labels提供信息时,我只希望度量标准来自“蓝色”

它不是那样工作的。

在诸如您这样的多类别设置中,精度和召回率是从整个混淆矩阵中按每个类别计算的。

我已经在another answer中详细解释了原理和计算;这是如何将其应用于您自己的混淆矩阵cm的情况:

import numpy as np

# your comfusion matrix:
cm =np.array([[1, 0, 1, 0],
              [0, 1, 0, 0],
              [1, 0, 0, 0],
              [0, 0, 0, 1]])

# true positives:
TP = np.diag(cm)
TP
# array([1, 1, 0, 1])

# false positives:
FP = np.sum(cm, axis=0) - TP
FP 
# array([1, 0, 1, 0])

# false negatives
FN = np.sum(cm, axis=1) - TP
FN
# array([1, 0, 1, 0])

现在,从精确度和召回率的定义来看,我们有:

precision = TP/(TP+FP)
recall = TP/(TP+FN)

以您的示例为例:

precision
# array([ 0.5,  1. ,  0. ,  1. ])

recall
# array([ 0.5,  1. ,  0. ,  1. ])

即对于您的“蓝色”班级,您可以获得50%的准确度和召回率。

由于FP和FN阵列恰好是相同的,所以这里的精确度和召回率是完全相同的,这纯属巧合。尝试不同的预测以获得感觉...