我喜欢用mAP(平均精度)来评估我的物体检测模型。在https://github.com/tensorflow/models/tree/master/research/object_detection/utils/中,我想使用object_detection_evaluation.py。
我将以下用于groundtruth框:
pascal_evaluator = object_detection_evaluation.PascalDetectionEvaluator(
categories, matching_iou_threshold=0.1)
groundtruth_boxes = np.array([[10, 10, 11, 11]], dtype=float)
groundtruth_class_labels = np.array([1], dtype=int)
groundtruth_is_difficult_list = np.array([False], dtype=bool)
pascal_evaluator.add_single_ground_truth_image_info(
'img2',
{
standard_fields.InputDataFields.groundtruth_boxes: groundtruth_boxes,
standard_fields.InputDataFields.groundtruth_classes: groundtruth_class_labels,
standard_fields.InputDataFields.groundtruth_difficult: groundtruth_is_difficult_list
}
)
这是预测框:
# Add detections
image_key = 'img2'
detected_boxes = np.array(
[ [100, 100, 220, 220], [10, 10, 11, 11]],
dtype=float)
detected_class_labels = np.array([1,1], dtype=int)
detected_scores = np.array([0.8, 0.9], dtype=float)
pascal_evaluator.add_single_detected_image_info(image_key, {
standard_fields.DetectionResultFields.detection_boxes:
detected_boxes,
standard_fields.DetectionResultFields.detection_scores:
detected_scores,
standard_fields.DetectionResultFields.detection_classes:
detected_class_labels
})
我用
打印结果metrics = pascal_evaluator.evaluate()
print(metrics)
我的问题:
如果我使用此预测框[100, 100, 220, 220]
,[10, 10, 11, 11]
,结果为:
{'PASCAL/Precision/mAP@0.1IOU':1.0, 'PASCAL/PerformanceByCategory/AP@0.1IOU/face':1.0}
如果我使用[10, 10, 11, 11]
,[100, 100, 220, 220]
(其他Box序列)
我得到以下结果:
{'PASCAL/Precision/mAP@0.1IOU':0.5, 'PASCAL/PerformanceByCategory/AP@0.1IOU/face':0.5}
为什么会这样?还是它的错误?
干杯迈克尔
答案 0 :(得分:0)
尽管您对此不太清楚,但我认为我在您的代码中发现了错误。您提到对于边界框的不同顺序会得到不同的结果。这似乎很奇怪,如果为真,那肯定是一个错误。
但是,由于我自己对代码进行了测试,因此您可能没有将相应的分数(detected_scores = np.array([0.8, 0.9], dtype=float)
)更改为边界框。但是这样一来,您不仅可以更改边界框的顺序,还可以更改问题。如果您应用正确的边界框,则两种情况下的mAP均保持不变:
{'PascalBoxes_Precision/mAP@0.5IOU':1.0, 'PascalBoxes_PerformanceByCategory/AP@0.5IOU/person':1.0}