我从OpenCV开始,想测试一些样本。我使用的示例在屏幕的各个面周围放置一个矩形。但是由此产生的检测是生涩和零星的,我怎样才能改进我的代码以使检测变得更加平滑?我使用haarcascade_frontalface_alt.xml。
void detectAndDisplay( Mat frame )
{
vector<Rect> faces;
Mat frame_gray;
cvtColor( frame, frame_gray, CV_BGR2GRAY );
equalizeHist( frame_gray, frame_gray );
face_cascade.detectMultiScale( frame_gray, faces, 1.1, 2, 0, Size(40, 40) );
for( size_t i = 0; i < faces.size(); i++ )
{
Mat faceROI = frame_gray( faces[i] );
int x = faces[i].x;
int y = faces[i].y;
int h = y+faces[i].height;
int w = x+faces[i].width;
rectangle(frame,
Point (x,y),
Point (w,h),
Scalar(255,0,255),
2,
8,
0);
}
imshow( "Capture - Face detection", frame );
}
答案 0 :(得分:1)
根据您的评论判断,您实际上是在视频序列中检测每个帧的面部并且是零星的,这是您对结果不满意的地方。如果我错了,请纠正我。
您在YouTube上看到的剪辑可能会根据检测到的脸部进行跟踪。检测视频序列的第一帧中的面部是非常常见的,然后将其用作跟踪算法中的种子输入以跟踪面部。 OpenCV有many tracking algorithms,例如Mean Shift和Kalman Filter跟踪器,可以跟踪人脸。这些跟踪器的结果将比每帧检测更加平滑。