我计算误报率和误报率。我正在使用这些技术:
cnf_matrix=confusion_matrix(Ytest, y_pred)
print(cnf_matrix)
FP = cnf_matrix.sum(axis=0) - np.diag(cnf_matrix)
FN = cnf_matrix.sum(axis=1) - np.diag(cnf_matrix)
TP = np.diag(cnf_matrix)
TN = cnf_matrix.sum() - (FP + FN + TP)
FP = FP.astype(float)
print('FP: '+str(FP))
FN = FN.astype(float)
print('Fn: '+str(FN))
TP = TP.astype(float)
print('FN: '+str(FN))
TN = TN.astype(float)
print('TN: '+str(TN))
# false positive rate
FPR = FP/(FP+TN)
print('FPR: '+str(FPR))
# False negative rate
FNR = FN/(TP+FN)
print('FNR: '+str(FNR))
我得到了这些向量:
FPR: [0. 0.01666667 0. ]
FNR: [0. 0. 0.03448276]
但是,我只需要获取一个值,而不是向量。 如何获得?
答案 0 :(得分:0)
对于多类分类,您的代码似乎正确。向量仅给出所有三个类别的FPR和FNR。因为每个课程的FPR和FNR会有所不同。如果您只对某一类的FPR / FNR感兴趣,那么只需提供索引即可访问该分数
print('FNR: '+str(FNR[0])) #FNR for 1st class will be at index 0
另一方面,对于二进制分类,我认为最好使用scikit-learn的函数来计算这些值。
FPR = 1-TNR 和 TNR =特异性
FNR = 1-TPR 和 TPR =撤回
然后,您可以如下计算FPR和FNR:
from sklearn.metrics import recall_score
tpr = recall(Ytest, y_pred) # it is better to name it y_test
# to calculate, tnr we need to set the positive label to the other class
# I assume your negative class consists of 0, if it is -1, change 0 below to that value
tnr = recall((Ytest, y_pred, pos_label = 0)
fpr = 1 - tnr
fnr = 1 - tpr