在以下情况下,我不知道为什么Sklearn
函数roc_auc_score
返回1
的原因:
y_true = [0, 0, 1, 0, 0, 0, 0, 1]
y_scores = [0.18101096153259277, 0.15506085753440857,
0.9940806031227112, 0.05024950951337814,
0.7381414771080017, 0.8922111988067627,
0.8253260850906372, 0.9967281818389893]
roc_auc_score(y_true,y_scores)
最后的三个分数0.7381414771080017, 0.8922111988067627, 0.8253260850906372
与标签0, 0, 0
不匹配。那么,AUC如何为1?我这是怎么了?
答案 0 :(得分:2)
ROC曲线的auc只是衡量您的模型相对于您的正类对数据点进行排序的能力。
在您的示例中,正面类别的得分始终大于负面类别的数据点。因此,auc_roc_score为1是正确的。
pd.DataFrame({'y_true':y_true,'y_scores':y_scores}).sort_values('y_scores',ascending=False)
y_scores y_true
7 0.996728 1
2 0.994081 1
5 0.892211 0
6 0.825326 0
4 0.738141 0
0 0.181011 0
1 0.155061 0
3 0.050250 0
答案 1 :(得分:2)
如果您查看ROC本身,就更容易理解原因:
> roc_curve(y_true, y_scores)
(array([0., 0., 0., 1.]),
array([0. , 0.5, 1. , 1. ]),
array([1.99672818, 0.99672818, 0.9940806 , 0.05024951]))
返回的元组中的第一个值是FPR,第二个是TPR,第三个是值改变的阈值点。
对于0.99672818的阈值,FPR实际上为0.5,而不是0,这会使您认为ROC的AUC不为0。但是,FPR / TPR点只是行0、0- > 0,1-> 1,1,并且它下面的区域确实是1。