如何计算误报率(FPR)和误报率percantage?

时间:2019-05-19 00:32:09

标签: python scikit-learn

我计算误报率和误报率。我正在使用这些技术:

cnf_matrix=confusion_matrix(Ytest, y_pred)

print(cnf_matrix)

FP = cnf_matrix.sum(axis=0) - np.diag(cnf_matrix)
FN = cnf_matrix.sum(axis=1) - np.diag(cnf_matrix)
TP = np.diag(cnf_matrix)
TN = cnf_matrix.sum() - (FP + FN + TP)

FP = FP.astype(float)
print('FP: '+str(FP))
FN = FN.astype(float)
print('Fn: '+str(FN))
TP = TP.astype(float)
print('FN: '+str(FN))
TN = TN.astype(float)
print('TN: '+str(TN))
# false positive rate
FPR = FP/(FP+TN)
print('FPR: '+str(FPR))
# False negative rate
FNR = FN/(TP+FN)
print('FNR: '+str(FNR))

我得到了这些向量:

FPR: [0.         0.01666667 0.        ]
FNR: [0.         0.         0.03448276]

但是,我只需要获取一个值,而不是向量。 如何获得?

1 个答案:

答案 0 :(得分:0)

对于多类分类,您的代码似乎正确。向量仅给出所有三个类别的FPR和FNR。因为每个课程的FPR和FNR会有所不同。如果您只对某一类的FPR / FNR感兴趣,那么只需提供索引即可访问该分数

print('FNR: '+str(FNR[0]))   #FNR for 1st class will be at index 0

另一方面,对于二进制分类,我认为最好使用scikit-learn的函数来计算这些值。

  • FPR = 1-TNR TNR =特异性

  • FNR = 1-TPR TPR =撤回

然后,您可以如下计算FPR和FNR:

from sklearn.metrics import recall_score
tpr = recall(Ytest, y_pred)   # it is better to name it y_test 
# to calculate, tnr we need to set the positive label to the other class
# I assume your negative class consists of 0, if it is -1, change 0 below to that value
tnr = recall((Ytest, y_pred, pos_label = 0) 
fpr = 1 - tnr
fnr = 1 - tpr