如果我对自己的数据集进行一些培训或评估,我对指标有一些疑问。我仍然是这个主题的新手,只是试验了tensorflow和googles对象检测api和tensorboard ......
所以我做了所有这些事情,用物体检测api完成并运行并训练了一些图像并对其他图像做了一些评估。
所以我决定使用加权PASCAL指标进行评估: 在张量板中,我为每个班级获得了一些IoU,而且还有mAP,这很好看,现在问题就出现了。
IoU为我提供了地面实况和预测框重叠程度的价值,并测量了物体探测器的准确度。
第一个问题:如果没有检测到具有地面实况的物体,是否会对IoU产生影响?
第二个问题:如果预测地面真相对象是否为假否定,是否会影响IoU?
第三个问题:如果没有地面实体对象,那么虚假Positves会怎样?
编码问题:
第四个问题:是否有人从对象检测API修改评估工作流程以引入更多指标,如准确度或TP / FP / TN / FN?如果可以的话,可以为我提供一些解释代码或者你使用过的教程 - 那真是太棒了!
第五个问题:如果我会监控一些过度拟合并占据我70%traindata的30%并进行一些评估,哪个参数显示我的数据集中有一些过度拟合?
也许这些问题是新手问题,或者我只需要阅读和理解更多 - 我不知道 - 所以我们非常感谢您的帮助!!
由于
答案 0 :(得分:0)
让我们从定义特定对象类的精度开始:它对该类的所有预测的良好预测比例,即其TP /(TP + FP)。例如,如果您有狗,猫和鸟的探测器,那么狗的精确度将是标记为狗的所有预测中正确标记的狗的数量(即包括错误检测)。
要计算精度,您需要确定每个检测到的框是TP还是FP。要做到这一点,你可以使用 IuO 测量,即,如果检测到的盒子与某些地面实况盒有重要(例如,50%*)重叠,如果两个盒子属于同一类,则为TP ,否则是它的FP(如果检测不匹配任何一个盒子也是FP)。
* @ 0.5IUO快捷方式的来源,你可能已经在带有PASCAL指标的图表标题的Tensorboard中发现了它。
如果估算器输出一些质量测量值(甚至概率),您可以决定放弃质量低于某个阈值的所有检测。通常,估计器被训练为输出0到1之间的值。通过更改阈值,您可以调整估计器的重新调用度量(正确发现的对象的比例)。降低阈值会增加召回率(但会降低精度),反之亦然。 平均精度(AP)是在不同阈值上计算的类预测的平均值,在PASCAL指标中,阈值来自范围[0,0.1,...,1],即其平均精度不同召回水平的价值观。它试图用一个数字捕获探测器的特征。
平均精确度是所有课程中平均预设的平均值。例如,对于我们的狗,猫,鸟探测器,它将是(dog_AP + cat_AP + bird_AP)/ 3。
PASCAL挑战中可以找到更严格的定义paper,第4.2节。
关于过度拟合的问题,可能有几个指标,一个可能是,在独立测试/验证集上计算的AP / mAP指标开始下降,而损失仍在减少。