kinect深度图像处理

时间:2013-05-16 09:43:05

标签: c++ image-processing kinect

这是我的问题

Kinect安装在房间的顶部(天花板上)。然后我拍摄了kinect下方人物的深度图像。

所以我得到的是下面人们的顶视图。

然后我想提取人们的头脑以计算人数。

正如我所看到的,这个问题需要识别图像的LOCAL最小区域。但是我没想办法。

有人可以建议我实现这个目标吗?

是否有OpenCV函数来获取局部最小区域?

谢谢。

3 个答案:

答案 0 :(得分:0)

您可以尝试使用watershed transform查找本地最小值。快速搜索提出了这个sample code,您可能想尝试使用OpenCV。

答案 1 :(得分:0)

我会进行前景 - 背景分割,将静态背景与动态“前景”(人物)分开。

然后,一旦你拥有了人物的点云/深度图,你可以将它们分割成例如一些区域增长(flood fill)方法。通过这种方式,您可以获得可以计算的分离人员,或者如果您正在寻找头部,则可以找到他们的最低点。

答案 2 :(得分:0)

我会选择像近距离和远距离阈值处理一样简单的东西,使用操作合并两者并在结果图像中找到轮廓。

它不是超级灵活的,因为你有点硬编码深度范围(预期的最小人体高度),但它很容易设置/调整,并且不应该是昂贵的计算。您可以选择使用一些模糊和侵蚀/扩张来帮助细化轮廓。

虽然它比我解释的更多,但您可以看到演示here CV threshold and contours

这是使用OpenCV和OpenNI的基本示例:

#include "opencv2/core/core.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/imgproc/imgproc.hpp"

#include <iostream>

using namespace cv;
using namespace std;

int threshNear = 60;
int threshFar = 100;
int dilateAmt = 1;
int erodeAmt = 1;
int blurAmt = 1;
int blurPre = 1;
void on_trackbar(int, void*){}

int main( )
{
    VideoCapture capture;
    capture.open(CV_CAP_OPENNI);
    if( !capture.isOpened() )
    {
        cout << "Can not open a capture object." << endl;
        return -1;
    }
    cout << "ready" << endl;
    vector<vector<Point> > contours;
    namedWindow("depth map");
    createTrackbar( "amount dilate", "depth map", &dilateAmt,16, on_trackbar );
    createTrackbar( "amount erode", "depth map", &erodeAmt,16, on_trackbar );
    createTrackbar( "amount blur", "depth map", &blurAmt,16, on_trackbar );
    createTrackbar( "blur pre", "depth map", &blurPre,1, on_trackbar );
    createTrackbar( "threshold near", "depth map", &threshNear,255, on_trackbar );
    createTrackbar( "threshold far", "depth map", &threshFar,255, on_trackbar );
    for(;;)
    {
        Mat depthMap;
        if( !capture.grab() )
        {
            cout << "Can not grab images." << endl;
            return -1;
        }
        else
        {
            if( capture.retrieve( depthMap, CV_CAP_OPENNI_DEPTH_MAP ) )
            {
                const float scaleFactor = 0.05f;
                Mat show; depthMap.convertTo( show, CV_8UC1, scaleFactor );
                //threshold
                Mat tnear,tfar;
                show.copyTo(tnear);
                show.copyTo(tfar);
                threshold(tnear,tnear,threshNear,255,CV_THRESH_TOZERO);
                threshold(tfar,tfar,threshFar,255,CV_THRESH_TOZERO_INV);
                show = tnear & tfar;//or cvAnd(tnear,tfar,show,NULL); to join the two thresholded images
                //filter
                if(blurPre == 1) blur(show,show,Size(blurAmt+1,blurAmt+1));
                Mat cntr; show.copyTo(cntr);
                erode(cntr,cntr,Mat(),Point(-1,-1),erodeAmt);
                if(blurPre == 0) blur(cntr,cntr,Size(blurAmt+1,blurAmt+1));
                dilate(cntr,cntr,Mat(),Point(-1,-1),dilateAmt);

                //compute and draw contours
                findContours(cntr,contours,0,1);
                drawContours(cntr,contours,-1,Scalar(192,0,0),2,3);

                //optionally compute bounding box and circle to exclude small blobs(non human) or do further filtering,etc.
                int numContours = contours.size();
                vector<vector<Point> > contours_poly( numContours );
                vector<Rect> boundRect( numContours );
                vector<Point2f> centers( numContours );
                vector<float> radii(numContours);
                for(int i = 0; i < numContours; i++ ){
                    approxPolyDP( Mat(contours[i]), contours_poly[i], 3, true );
                    boundRect[i] = boundingRect( Mat(contours_poly[i]) );
                    minEnclosingCircle(contours_poly[i],centers[i],radii[i]);
                    rectangle( cntr, boundRect[i].tl(), boundRect[i].br(), Scalar(64), 2, 8, 0 );
                    circle(cntr,centers[i],radii[i],Scalar(192));
                 }

                imshow( "depth map", show );
                imshow( "contours", cntr );
            }

        }

        if( waitKey( 30 ) == 27 ) break;//exit on esc
    }
}

即使您没有使用OpenNI来获取深度流,您仍然可以将深度图像插入OpenCV。此外,您可以检测边界框和圆圈,这可能有助于进一步过滤事物。假设您在办公室中进行设置,您可能希望避免使用柱子,高大的植物,架子等,这样您就可以检查边界圆的半径或边界框的宽高比。