OpenCV计算机摄像头位置&&回转

时间:2012-12-19 16:49:43

标签: c++ opencv camera rotation position

对于项目我需要计算相机的真实世界位置和方向 关于已知对象。 我有一组照片,每个都从不同的角度展示棋盘。 使用CalibrateCamera和solvePnP我可以在2d重新投影点数,以获得AR事物。 所以我的情况是这样的:

  • 内在参数已知

  • 已知失真系数

  • 翻译矢量和旋转矢量在每张照片中都是已知的。

我根本无法弄清楚如何计算相机的位置。我的猜测是:

  • 反转平移向量。 (= T')

  • 将旋转矢量转换为度(似乎是弧度)并反转

  • 在旋转矢量上使用rodriguez

  • 计算RotationMatrix * t'

但结果完全不合适...... 基本上我想为世界坐标中的每个像素计算一条光线。 如果需要更多关于我的问题的信息,我很乐意快速回答。

我不明白......不知怎的,光线还在关闭。这是我的代码btw:

Mat image1CamPos = tvecs[0].clone(); //From calibrateCamera
Mat rot = rvecs[0].clone(); //From calibrateCamera
Rodrigues(rot, rot);
rot = rot.t();

//Position of Camera
Mat pos = rot * image1CamPos;

//Ray-Normal (( (double)mk[i][k].x) are known image-points)
float x = (( (double)mk[i][0].x) / fx) - (cx / fx);
float y = (( (double)mk[i][0].y) / fy) - (cy / fy);
float z = 1;
float mag = sqrt(x*x + y*y + z*z);
x /= mag;
y /= mag;
z /= mag;

Mat unit(3, 1, CV_64F);
unit.at<double>(0, 0) = x;
unit.at<double>(1, 0) = y;
unit.at<double>(2, 0) = z;

//Rotation of Ray
Mat rot = stof1 * unit;

但是当绘制它时,光线是关闭的:/

1 个答案:

答案 0 :(得分:6)

对象相对于相机的平移t(3x1向量)和旋转R(3x3矩阵)等于从对象到相机空间的坐标转换,由下式给出:

v' = R * v  + t

旋转矩阵的反转只是转置:

R^-1 = R^T

了解这一点,您可以轻松地将转换(第一个等式)解析为v:

v = R^T * v' - R^T * t

这是从相机到物体空间的转换,即相机相对于物体的位置(旋转= R^T和平移= -R^T * t)。

你可以从中简单地得到一个4x4齐次变换矩阵:

T = ( R^T  -R^T * t )
    (  0       1    )

如果您现在在相机坐标中有任何点,则可以将其转换为对象坐标:

p' = T * (x, y, z, 1)^T

所以,如果你想从一个带有坐标(a,b)的像素投射光线(可能你需要定义图像的中心,即CalibrateCamera报告的主要点, as(0,0)) - 让该像素为P = (a,b)^T。然后它在相机空间中的3D坐标是P_3D = (a,b,0)^T。让我们在正z方向投影100像素,即到点Q_3D = (a,b,100)^T。您需要做的就是使用变换矩阵T将3D坐标转换为对象坐标系,您应该能够在对象空间中的两个点之间绘制一条线。但是,请确保不要混淆单位:CalibrateCamera会在您的对象坐标系定义时报告像素值,例如cm或mm。