我目前在WIDER-FACE数据上的Tensorflow对象检测API上使用Inception v2的Faster RCNN,我有很多误报率很高(> 0.98,所以设置更高的得分阈值无济于事)。 我已经在代码中分配了“困难示例挖掘”,但并没有太大帮助。 对于图像预处理,我使用 tf.image.sample_distorted_bounding_box 从原始图像中随机裁剪一个区域,并将其大小调整为300 * 300。调整大小后的图像将以0.5的概率随机翻转
我将批次大小设置为32,对于每个图像,硬性负片挖掘操作中正:负的比率为 32:32 。我将 IoU> 0.5 设置为正,将 IoU <0.3 设置为负。对于IoU在0.5到0.3之间的样本,将被忽略
有人可以帮我吗?非常感谢!
答案 0 :(得分:1)
通常,将正例和负例之间的比率设置为1:3。可能是因为在您的模型中该比率设置为1:1,所以该模型没有看到足够多的负面示例。
您还可以尝试进行错误分析,并检查具有高置信度的误报。也许它们是特定类型的,如果是这样,请在您的训练数据中添加这种类型的负面示例。
答案 1 :(得分:0)
您也可以尝试提高RPN的NMS阈值。