i used the Google TensorFlow Object detection API [ https://github.com/tensorflow/models][1]时,使用Faster RCNN inception v2模型训练自己的数据集并使用python 3编写一些自己的脚本时,Click事件不会调用。在我的视频上效果很好,现在我要输出预测的边界框来计算mAP。有什么方法可以做到这一点?
我从训练中生成了三个文件:
这些文件之一中是否包含预测框?还是将它们存储在其他地方?还是需要单独编码它们才能提取坐标?
答案 0 :(得分:1)
您列出的文件是检查点文件,然后可以用来导出冻结的图,然后对输入图像进行预测。
一旦获得了冻结图,就可以使用该文件object_detection_tutorial.ipynb
来预测输入图像。
在此文件中,函数 run_inference_for_single_image 将为每个图像返回一个输出字典,并且其中包含检测框。