我一直在阅读此blog,以便找到 mAP 。在AP的子标题中,他们以5个苹果图像为例,并找出了平均精度据我所知false positive
是对象被本地化和分类的时间,而IOU < 0.5
(在博客中)是假否定的,是模型无法识别对象本身的原因。他们不属于错误的假话吗?
博客中的表又代表什么呢?'correct?'
是一个或多个示例,class darthVader {
constructor() {
return new Proxy(this, {
set(obj, prop, value) {
console.log(`Setting ${prop} to ${value}`)
obj[prop] = value
return true
}
})
}
set resistance(val) {
this._resistance= val
this.darkSide = false
}
get resistance() { return this._R2D2 }
}
let newHero = new darthVader()
newHero.resistance = 11
console.log(newHero.darkSide)
仅可以简单介绍一下您自己的情况或博客的内容?
答案 0 :(得分:1)
什么是目标检测中的mAP?
mAP 只是平均精度,它是所有对象类中 AP 的平均值。例如,如果您有5个对象类别,则每个类别的平均精度( AP )和 mAP 将是这些 AP 的总和s除以5。
误报是指对象已进行本地化和分类,但IOU <0.5
在对象检测中,我们可以具有多个类别的对象。背景也是一个类,但是它是隐式的。因此,例如,如果我们有3类对象(例如苹果,橙子,香蕉),则网络会将其视为4类(苹果,橙子,香蕉,背景)。仅在结果中,该程序不会在背景对象周围绘制边框。
假阳性是指对象检测模型已将图像的一部分报告为特定类别的对象(例如苹果)。但是,图像的那部分没有苹果。还有另一个水果,例如橙色(错误分类),或者根本没有水果(背景)。从网络的角度来看,这两种情况都是相同的,我们认为这是假阳性。因此,网络错误地将该部分视为特定类别的积极样本。在这种情况下,IoU可以具有任何值(无关紧要)。错误分类的对象也包含在误报率中,因为它们被报告为阳性(对于特定类别),但是实际上它们是负面的(它们属于另一个类别或背景)。
假阴性表示模型实际上已将对象的一部分预测为背景。换句话说,网络未能检测到对象,并错误地将其报告为背景。
博客中的表格真正代表什么?
博客中用于报告正确的 IoU (联盟交集)是通过将检测到的框与通过这些区域的结合,得出地面真理(由人类绘制的方框作为正确的方框)。
因此,如果IoU大于0.5,则表示网络已正确预测了苹果的位置。在表中,正确适用于每个苹果,其准确度是根据正确预测的数量除以所有预测得出的。