F1得分和分类错误之间有什么关系?

时间:2016-10-28 20:24:50

标签: machine-learning statistics classification

我正在使用K-fold交叉验证来查找最大化我的F1分数的参数。然而,我检查了准确性(1-errorRate),结果发现虽然参数给出了很高的F1分数,但它的准确度很低。我随机尝试了一些其他的参数值,即使它们给出了较低的F1分数,但准确度更高。我使用k折叠和从原始训练数据中提取的测试集来使用单独的数据进行训练。

1 个答案:

答案 0 :(得分:3)

valueF1 = 2 TP / (2 TP + FN + FP)因此你可以看到F1是"有偏见"对于正面类而言,并没有给出负面样本(ACC = (TP + TN) / (TP + FN + FP + FN))的正确分类。虽然准确性是一个简单的概率对象(正确分类的可能性),F1是许多相当随意的想法之一 - 更多地关注一个类(在这种情况下是积极的一个)的想法,没有一个非常好的概率解释。因此,没有好的,直接的关系 - 完全不同的模型将具有良好的f1分数和完全不同的良好准确性。只有在你可以拥有一个完美的模型(0错误)的情况下,它才会最大化两种测量(如果你有一个可怕的,对称的,精度为0)。在任何其他情况下,他们会在某些时候不同意。