我通过OpenCV 2.4.11中的findEssentialMat()函数使用五点算法来计算一个摄像头相对于另一个摄像头的相对姿势。对于初始测试,我将两个摄像机分成X并拍摄了多张照片。如图所示,图像之间检测到的(和匹配的)特征大致相同,没有移动;然而,必要的矩阵以及极线的变化很大:这反过来影响了我的姿势。为了提高E矩阵的准确性,我还尝试了两次运行算法:首先使用RANSAC滤除异常值,然后使用LMEDS算法,但我看不到很多改进。特别是在图片1和图片2之间,存在巨大的变化。
关于可能改变/出错的指示?我知道RANSAC选择可以导致每次都拾取不同的样本,但是因为所有的功能应该具有相同的转换"可以这么说,不管哪个是最终的内部,极线的界限是否仍然相似?此外,五点算法文件指出,在所有点都是共面的情况下,它没有失败的问题。有什么方法可以改进基本矩阵计算吗?
谢谢你的时间!