我知道在搜索引擎中召回的意义,但是召回分类器的意义是什么,例如贝叶斯分类器?请举个例子,谢谢。
例如,Precision =正确/正确+错误的测试数据文档。怎么理解召回?
答案 0 :(得分:30)
召回字面意思是 真实的阳性中有多少被召回(找到),即还找到了多少正确的点击。
精确度(您的公式不正确)有多少返回的点击 true 正面,即发现了多少正确的点击次数
实际上,这很简单。答案 1 :(得分:22)
ML中的精度与信息检索中的精度相同。
recall = TP / (TP + FN)
precision = TP / (TP + FP)
(其中TP = True Positive,TN = True Negative,FP = False Positive,FN = False Negative)。
将这些符号用于二元分类器是有意义的,通常“正”是不太常见的分类。请注意,精确/召回指标实际上是特定形式,其中#class = 2表示更为通用的confusion matrix。
另外,您的“精确度”符号实际上是准确度,并且是(TP+TN)/ ALL
答案 2 :(得分:16)
我发现维基百科对Precision and Recall的解释非常有用:
假设用于识别照片中的狗的计算机程序识别出包含12只狗和一些猫的图片中的8只狗。在确定的8只狗中,5只实际上是狗(真阳性),其余是猫(假阳性)。该计划的精确度为5/8,而其召回率为5/12。当搜索引擎返回30页时,其中只有20页是相关的,而未能返回40个额外的相关页面,其精度为20/30 = 2/3,而其召回率为20/60 = 1/3。
因此,在这种情况下,精度是"搜索结果的有效性如何"并且回想起#34;结果是多么完整" 。
答案 3 :(得分:2)
用非常简单的语言:例如,在一系列显示政治家的照片中,有多少次政治家XY的照片被正确地识别为显示A. Merkel而不是其他政治家?
精确度是另一个人被识别的次数(误报):(正确命中)/(正确命中)+(误报)
召回是照片中显示的人的姓名被错误识别的次数的比率('被召回'):(正确的通话)/(正确的通话)+(错误的通话)
答案 4 :(得分:1)
这些术语实际上来自信号检测理论。有关详细信息,请参阅http://en.wikipedia.org/wiki/Receiver_operating_characteristic
在右侧的“术语和混淆矩阵的派生”下。
答案 5 :(得分:0)
给你一个例子。想象一下,我们有一个机器学习模型,可以检测猫还是狗。由人类提供的实际标签称为真相。 同样,模型的输出称为预测。现在查看下表:
ExampleNo Ground-truth Model's Prediction
0 Cat Cat
1 Cat Dog
2 Cat Cat
3 Dog Cat
4 Dog Dog
说,我们想找回猫课的回忆。根据定义,召回是指正确识别的某个类别的百分比(从那个类别的所有给定示例中)。因此,对于类别为cat的模型,该模型正确地识别了2次(例如0和2)。但这是否意味着实际上只有两只猫? 不!实际上,地面真相中有3只猫(带有人类标签)。那么,正确识别该类别的百分比是多少? 2 out of 3 that is (2/3) * 100 = 66.67%
或0.667
(如果您在1内对其进行归一化)。这是示例3中对cat的另一种预测,但它不是正确的预测,因此我们不考虑它。
现在要进行数学公式化。首先了解两个术语:
TP(真实肯定):预测实际是肯定的肯定的东西。如果cat是我们的积极榜样,那么当它实际上是猫时,就预测它是猫。
FN(假否定):预测实际上不是负数的负数。
现在对于某个类别,该分类器的输出可以是两种类型:猫或狗(不是猫)。因此,正确的数字标识是“真正数”(TP)的数量。同样,该类别的示例总数为TP + FN。因为在所有猫中,模型要么正确检测到了它们(TP),要么没有正确检测到它们(FN,即,当模型实际上是阳性(猫)时,该模型错误地说了“阴性”(非猫))。因此,对于某个类别,TP + FN表示该类别的基本事实中可用的示例总数。因此公式为:
Recall = TP / (TP + FN)
同样,也可以为Dog计算召回率。当时以狗为阳性,以猫为阴性。
因此,对于任何数量的要查找某个类的回忆 的人,都应将其作为正类,并取其其余部分类作为负类类,并使用公式查找召回率。继续每个课程的过程以查找所有课程的回忆。
如果您还想了解精度,请访问以下网址:https://stackoverflow.com/a/63121274/6907424