sklearn metrics.log_loss是积极的,而得分'neg_log_loss'是否定的

时间:2017-03-28 22:45:56

标签: scikit-learn metrics

确保我做对了:

如果我们使用sklearn.metrics.log_loss独立,即log_loss(y_true,y_pred),它会产生一个正分数 - 分数越小,表现越好。

但是,如果我们使用'neg_log_loss'作为'cross_val_score'中的评分方案,则得分为负 - 得分越大,表现越好。

这是因为评分方案的建立与其他评分方案一致。一般来说,越高越好,我们否定通常的 log_loss 与趋势一致。它只是为了这个目的而完成的。这种理解是否正确?

[背景:获得metric.log_loss的正分数和'neg_los_loss'的负分数,并且都指向相同的文档页面。]

1 个答案:

答案 0 :(得分:3)

sklearn.metrics.log_loss是通常定义的错误度量的实现,并且与大多数错误度量一样是正数。在这种情况下,它是通常最小化的度量(例如,作为回归的均方误差),与诸如最大化的准确度之类的度量相反。

'neg_log_loss'因此是创建实用程序值的技术性,它允许优化sklearn的函数和类以最大化此实用程序,而无需更改每个度量的函数行为(例如包括名为cross_val_score,GridSearchCV) ,RandomizedSearchCV等。)