这是我的问题
Kinect安装在房间的顶部(天花板上)。然后我拍摄了kinect下方人物的深度图像。
所以我得到的是下面人们的顶视图。
然后我想提取人们的头脑以计算人数。
正如我所看到的,这个问题需要识别图像的LOCAL最小区域。但是我没想办法。
有人可以建议我实现这个目标吗?
是否有OpenCV函数来获取局部最小区域?
谢谢。
答案 0 :(得分:0)
您可以尝试使用watershed transform查找本地最小值。快速搜索提出了这个sample code,您可能想尝试使用OpenCV。
答案 1 :(得分:0)
我会进行前景 - 背景分割,将静态背景与动态“前景”(人物)分开。
然后,一旦你拥有了人物的点云/深度图,你可以将它们分割成例如一些区域增长(flood fill)方法。通过这种方式,您可以获得可以计算的分离人员,或者如果您正在寻找头部,则可以找到他们的最低点。
答案 2 :(得分:0)
我会选择像近距离和远距离阈值处理一样简单的东西,使用和操作合并两者并在结果图像中找到轮廓。
它不是超级灵活的,因为你有点硬编码深度范围(预期的最小人体高度),但它很容易设置/调整,并且不应该是昂贵的计算。您可以选择使用一些模糊和侵蚀/扩张来帮助细化轮廓。
虽然它比我解释的更多,但您可以看到演示here
这是使用OpenCV和OpenNI的基本示例:
#include "opencv2/core/core.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/imgproc/imgproc.hpp"
#include <iostream>
using namespace cv;
using namespace std;
int threshNear = 60;
int threshFar = 100;
int dilateAmt = 1;
int erodeAmt = 1;
int blurAmt = 1;
int blurPre = 1;
void on_trackbar(int, void*){}
int main( )
{
VideoCapture capture;
capture.open(CV_CAP_OPENNI);
if( !capture.isOpened() )
{
cout << "Can not open a capture object." << endl;
return -1;
}
cout << "ready" << endl;
vector<vector<Point> > contours;
namedWindow("depth map");
createTrackbar( "amount dilate", "depth map", &dilateAmt,16, on_trackbar );
createTrackbar( "amount erode", "depth map", &erodeAmt,16, on_trackbar );
createTrackbar( "amount blur", "depth map", &blurAmt,16, on_trackbar );
createTrackbar( "blur pre", "depth map", &blurPre,1, on_trackbar );
createTrackbar( "threshold near", "depth map", &threshNear,255, on_trackbar );
createTrackbar( "threshold far", "depth map", &threshFar,255, on_trackbar );
for(;;)
{
Mat depthMap;
if( !capture.grab() )
{
cout << "Can not grab images." << endl;
return -1;
}
else
{
if( capture.retrieve( depthMap, CV_CAP_OPENNI_DEPTH_MAP ) )
{
const float scaleFactor = 0.05f;
Mat show; depthMap.convertTo( show, CV_8UC1, scaleFactor );
//threshold
Mat tnear,tfar;
show.copyTo(tnear);
show.copyTo(tfar);
threshold(tnear,tnear,threshNear,255,CV_THRESH_TOZERO);
threshold(tfar,tfar,threshFar,255,CV_THRESH_TOZERO_INV);
show = tnear & tfar;//or cvAnd(tnear,tfar,show,NULL); to join the two thresholded images
//filter
if(blurPre == 1) blur(show,show,Size(blurAmt+1,blurAmt+1));
Mat cntr; show.copyTo(cntr);
erode(cntr,cntr,Mat(),Point(-1,-1),erodeAmt);
if(blurPre == 0) blur(cntr,cntr,Size(blurAmt+1,blurAmt+1));
dilate(cntr,cntr,Mat(),Point(-1,-1),dilateAmt);
//compute and draw contours
findContours(cntr,contours,0,1);
drawContours(cntr,contours,-1,Scalar(192,0,0),2,3);
//optionally compute bounding box and circle to exclude small blobs(non human) or do further filtering,etc.
int numContours = contours.size();
vector<vector<Point> > contours_poly( numContours );
vector<Rect> boundRect( numContours );
vector<Point2f> centers( numContours );
vector<float> radii(numContours);
for(int i = 0; i < numContours; i++ ){
approxPolyDP( Mat(contours[i]), contours_poly[i], 3, true );
boundRect[i] = boundingRect( Mat(contours_poly[i]) );
minEnclosingCircle(contours_poly[i],centers[i],radii[i]);
rectangle( cntr, boundRect[i].tl(), boundRect[i].br(), Scalar(64), 2, 8, 0 );
circle(cntr,centers[i],radii[i],Scalar(192));
}
imshow( "depth map", show );
imshow( "contours", cntr );
}
}
if( waitKey( 30 ) == 27 ) break;//exit on esc
}
}
即使您没有使用OpenNI来获取深度流,您仍然可以将深度图像插入OpenCV。此外,您可以检测边界框和圆圈,这可能有助于进一步过滤事物。假设您在办公室中进行设置,您可能希望避免使用柱子,高大的植物,架子等,这样您就可以检查边界圆的半径或边界框的宽高比。