当负面类很少时,F得分

时间:2015-05-06 14:29:01

标签: machine-learning precision-recall

我有数据集,其中20%的数据是负类,80%是正数。在计算F得分时,我假设精度是TP /(TP + FP)。我应该反过来吗?公式,因为我不太频繁的课程是负面的?那么这将是TN /(TN + FN)?

1 个答案:

答案 0 :(得分:1)

首先,你所写的不是F1得分。那就是精确!

要计算F1得分,请设置精度= TP /(TP + FP)并调用= TP /(TP + FN)。他们的调和意味着F1得分。因此,F1 = 2 *(P * R)/(P + R)。 See this for further details.

你可以为每个类计算这些值,看看你在分类任务中的表现如何。如果你想为负类计算它,你最终会得到的就像你说的计算真正的负面例子而不是真实的例子。请注意,真正的积极意味着正确地分类为感兴趣的类别。它与类值无关。

最后,您还可以计算两个类的精度,召回率和f1,并取其平均值。这一切最终都取决于您想要如何判断分类器的性能。如果准确地对负面实例进行分类更为重要,那么你应该专注于为负面实例提供高精度(当然不会搞砸其他类!)同样适合召回。