将Kinect深度图像转换为真实世界坐标

时间:2014-04-29 13:55:03

标签: c++ opencv kinect openni depth

我正在使用kinect,使用OpenNI 2.x,c ++,OpenCV。

我能够获得kinect深度流并获得灰度cv :: Mat。只是为了说明它是如何定义的:

cv::Mat m_depthImage;
m_depthImage= cvCreateImage(cvSize(640, 480), 8, 1);

我认为最接近的值由" 0"表示。最远的是" 255"。

之后,我在深度坐标到世界坐标之间进行转换。我按照cv :: Mat灰度矩阵的元素逐个进行,我在PointsWorld [640 * 480]中收集数据。 为了显示这些数据,我调整了比例以便在2000x2000x2000矩阵中收集值。

cv::Point3f depthPoint;
cv::Point3f PointsWorld[640*480];
for (int j=0;j<m_depthImage.rows;j++)
    {
        for(int i=0;i<m_depthImage.cols; i++)
        {
            depthPoint.x = (float) i;
            depthPoint.y = (float) j;
            depthPoint.z = (float) m_depthImage.at<unsigned char>(j, i);

            if (depthPoint.z!=255)
            {
                  openni::CoordinateConverter::convertDepthToWorld(*m_depth,depthPoint.x,depthPoint.y,depthPoint.z, &wx,&wy,&wz);
                wx = wx*7,2464; //138->1000
                if (wx<-999)    wx = -999;
                if (wx>999)     wx = 999;

                wy = wy*7,2464; //111->1000 with 9,009
                if (wy<-999)    wy = -999;
                if (wy>999)     wy = 999;

                wz=wz*7,8431;   //255->2000
                if (wz>1999)        wy = 1999;

                Xsp = P-floor(wx);
                Ysp = P+floor(wy);
                Zsp = 2*P-floor(wz);

                PointsWorld[k].x = Xsp;
                PointsWorld[k].y = Ysp;
                PointsWorld[k].z = Zsp;

                k++;
            }
        }
    }

但我确信这样做不会让我理解点之间的真实距离。 x,y,z坐标是什么意思? 有一种方法可以知道点之间的实际距离,知道多远,例如,矩阵的灰度值&#34; 255&#34;?和wx,wy,wz它们的用途是什么?

1 个答案:

答案 0 :(得分:1)

如果您使用OpenNI支持构建OpenCV,您应该可以执行以下操作:

int ptcnt;
cv::Mat real;
cv::Point3f PointsWorld[640*480];
if( capture.retrieve(real, CV_CAP_OPENNI_POINT_CLOUD_MAP)){
    for (int j=0;j<m_depthImage.rows;j++)
    {
        for(int i=0;i<m_depthImage.cols; i++){
            PointsWorld[ptcnt] = real.at<cv::Vec3f>(i,j);
            ptcnt++;
        }
    }
}