solvePnP返回错误的结果

时间:2013-01-28 09:52:10

标签: c++ image-processing opencv computer-vision pose-estimation

我正在使用函数solvePnP通过视觉标记来估计机器人的姿势。有时我在两个连续帧中得到错误的结果。在文件problem.cpp中,您可以看到其中一个结果。

点集对应于两个连续帧中的相同标记。它们之间的差异很小,solvePnP的结果非常不同,但只在旋转矢量中。翻译矢量还可以。

每30帧发生一次大约一次。我已经使用相同的数据测试了CV_ITERATIVE和CV_P3P方法,它们返回相同的结果。

这是问题的一个例子:

#include <opencv2/calib3d/calib3d.hpp>
#include <opencv2/core/core.hpp>
#include <iostream>
using namespace std;
using namespace cv;
int main(){
vector<Point2f> points1, points2;

//First point's set
points1.push_back(Point2f(384.3331f,  162.23618f));
points1.push_back(Point2f(385.27521f, 135.21503f));
points1.push_back(Point2f(409.36746f, 139.30315f));
points1.push_back(Point2f(407.43854f, 165.64435f));

//Second point's set
points2.push_back(Point2f(427.64938f, 158.77661f));
points2.push_back(Point2f(428.79471f, 131.60953f));
points2.push_back(Point2f(454.04532f, 134.97353f));
points2.push_back(Point2f(452.23096f, 162.13156f));

//Real object point's set
vector<Point3f> object;
object.push_back(Point3f(-88.0f,88.0f,0));
object.push_back(Point3f(-88.0f,-88.0f,0));
object.push_back(Point3f(88.0f,-88.0f,0));
object.push_back(Point3f(88.0f,88.0f,0));

//Camera matrix
Mat cam_matrix = Mat(3,3,CV_32FC1,Scalar::all(0));
cam_matrix.at<float>(0,0) = 519.0f;
cam_matrix.at<float>(0,2) = 320.0f;
cam_matrix.at<float>(1,1) = 522.0f;
cam_matrix.at<float>(1,2) = 240.0f;
cam_matrix.at<float>(2,2) = 1.0f;

//PnP
Mat rvec1i,rvec2i,tvec1i,tvec2i;
Mat rvec1p,rvec2p,tvec1p,tvec2p;
solvePnP(Mat(object),Mat(points1),cam_matrix,Mat(),rvec1i,tvec1i,false,CV_ITERATIVE);
solvePnP(Mat(object),Mat(points2),cam_matrix,Mat(),rvec2i,tvec2i,false,CV_ITERATIVE);
solvePnP(Mat(object),Mat(points1),cam_matrix,Mat(),rvec1p,tvec1p,false,CV_P3P);
solvePnP(Mat(object),Mat(points2),cam_matrix,Mat(),rvec2p,tvec2p,false,CV_P3P);

//Print result
cout<<"Iterative: "<<endl;
cout<<" rvec1 "<<endl<<" "<<rvec1i<<endl<<endl;
cout<<" rvec2 "<<endl<<" "<<rvec2i<<endl<<endl;
cout<<" tvec1 "<<endl<<" "<<tvec1i<<endl<<endl;
cout<<" tvec1 "<<endl<<" "<<tvec2i<<endl<<endl;

cout<<"P3P: "<<endl;
cout<<" rvec1 "<<endl<<" "<<rvec1p<<endl<<endl;
cout<<" rvec2 "<<endl<<" "<<rvec2p<<endl<<endl;
cout<<" tvec1 "<<endl<<" "<<tvec1p<<endl<<endl;
cout<<" tvec1 "<<endl<<" "<<tvec2p<<endl<<endl;

return 0;

}

这就是结果:

Iterative: 
rvec1 
[-0.04097605099283788; -0.3679435501353919; 0.07086072250132323]
rvec2 
[0.4135950235376482; 0.6834759799439329; 0.1049879790744613]
tvec1 
[502.4723979671957; -582.21069174737; 3399.430492848247]
tvec2 
[774.9623278021523; -594.8332356366083; 3338.42153723169]
P3P: 
rvec1 
[-0.08738607323881876; -0.363959462471951; 0.06617591006606272]
 rvec2 
[0.4239629869157338; 0.7210136877984544; 0.1133539043199323]
tvec1 
[497.3941378807597; -574.3015171812298; 3354.522829883918]
tvec1 
[760.2641421675842; -582.2718972605966; 3275.390313948845]

感谢。

1 个答案:

答案 0 :(得分:10)

我假设您的输入图像是640x480并将两个观察到的标记绘制在白色画布上。第一帧的标记为红色,第二帧的标记为蓝色。

Observed markers

正方形在两幅图像中大致面向相机,在屏幕上非常小。这意味着很难估计位置和旋转。特别是到物体的距离和围绕x和y轴的旋转。围绕这些轴的旋转的适度变化几乎不会引起注意,因为这些点将主要朝向或远离相机移动。检测到标记的错误将对结果产生重大影响。

估计标记位置和方向的不确定性可以使用从projectPoints方法获得的雅可比矩阵来估算。

// Compute covariance matrix of rotation and translation
Mat J;
vector<Point2f> p;
projectPoints(object, rvec1i, tvec1i, cam_matrix, Mat(), p, J);
Mat Sigma = Mat(J.t() * J, Rect(0,0,6,6)).inv();

// Compute standard deviation
Mat std_dev;
sqrt(Sigma.diag(), std_dev);
cout << "rvec1, tvec1 standard deviation:" << endl << std_dev << endl;
  

rvec1,tvec1标准偏差:
  [0.0952506404906549; 0.09211686006979068; 0.02923763901152477; 18.61834775099151; 21.61443561870643; 124.9111908058696]

此处获得的标准偏差应根据观察点的不确定度(以像素为单位)进行缩放。您可以看到x和y周围的旋转不确定性大于z附近,并且到相机的距离有很大的不确定性。

如果将结果复制到matlab,则可以绘制协方差矩阵,如下所示:

imagesc(sqrt(abs(Sigma)))

Covariance visualization

图像告诉我们,在平移z方向上不确定性最大,并且该方向上的估计与估计x和y位置(在3D空间中)非常强烈地相关。由于旋转和平移使用不同的单位,因此将旋转误差与位置误差联系起来更加困难。

如果您想要更稳定的标记估算值,我建议您使用Extended Kalman Filter或类似的东西过滤数据。这将使您从知道图像是序列的一部分并跟踪不确定性中受益,这样您就不会被少量信息所愚弄。 OpenCV具有Kalman filtering的一些功能,可能会派上用场。

也许你很久以前就解决了你的问题,但我希望这篇文章可以为某些人提供一些见解!