我想估计两幅图像之间的变换矩阵,这些图像是从不同位置的同一场景拍摄的。
我尝试了两种方法:
第一个方法相关链接: https://docs.opencv.org/2.4/doc/tutorials/features2d/feature_homography/feature_homography.html https://docs.opencv.org/3.3.0/dc/d2c/tutorial_real_time_pose.html
我使用关键点,描述和图像匹配的提取来找到两个图像之间的对应点,然后使用findHomography来计算矩阵。然而,尽管我使用了上述链接中提到的各种技术,但这些图像匹配方法并不能很好地工作。
第二种方法,我尝试了esimateRigidTransform。但是,它返回空矩阵以跟随两个示例图像。
在函数的文档中,"两个光栅图像。在这种情况下,该函数首先在src图像中找到一些特征,并在dst图像中找到相应的特征。在那之后,问题就减少到了第一种情况。"它似乎使用与第一种方法类似的想法。
我的问题: 1.为什么esimateRigidTransform会为这些相似的图像返回空矩阵? 2.是否有更好的方法来计算在不同位置的同一场景拍摄的相似图像之间的变换矩阵?例如,我可以跳过功能检测和匹配步骤吗?
感谢。