我正在做一个opencv项目,需要检测屏幕上的图像,一段时间后它会消失。它需要在图像显示时保存尽可能多的帧,并在图像消失时停止。我计划使用收集的数据来制作ConvNet,因此我捕获的帧数越多越好。
我正在使用全屏模板匹配来搜索图像并识别它何时消失,但我只捕获了大约30%的总帧数,屏幕为30FPS。
想要提高帧捕获率,我改为使用模板匹配搜索全屏直到找到图像,然后将搜索区域缩小到图像的坐标,稍微有一点余量,因此程序可以使用更少的资源来识别图像消失的时间(因为检查图像是否仍在那里的非常小的área)。这让我可以捕获60%的帧。
但是我想知道,我可以做些别的事情来让我优化我的程序吗?我觉得为每一帧做模板匹配都是矫枉过正。在这种情况下,对象跟踪是否更好,或者它甚至不起作用,因为图像消失了?
PS:图像在屏幕上停留约7~10秒,大约需要同时再次弹出。
答案 0 :(得分:1)
我结束使用numpy保存捕获的帧,并且缩小区域达到99%效率,没有调整图像大小或多处理。