目前,我正在使用OpenCV进行对象跟踪。当OpenCV返回对象所在位置的关键点时,它们超出了iPhone屏幕的范围。我认为需要进行某种转换才能使用swift来使用这些点。
有谁知道需要进行的转换?
任何帮助将不胜感激。
答案 0 :(得分:0)
cvPoint值是图像坐标(如果跟踪算法有效)。您可以使用cvCircle在图像上标记这些点,然后在iPhone屏幕上显示图像以检查它们是否有效。 使用UIImageView在屏幕上显示图像时,显示图像的大小可能与图像分辨率不同。在这种情况下,如果要在图像上放置某些东西,则需要缩放坐标。有关示例,请参阅here。