我正试图检测只落在脸部区域内的眼睛,因此我对代码做了一些小改动:
if( cascade )
{
double t = (double)cvGetTickCount();
CvSeq* faces = cvHaarDetectObjects( small_img, cascade, storage,
1.1, 2, 0|CV_HAAR_DO_CANNY_PRUNING,
cvSize(30, 30) );
t = (double)cvGetTickCount() - t;
printf( "detection time = %gms\n", t/((double)cvGetTickFrequency()*1000.) );
for( i = 0; i < (faces ? faces->total : 0); i++ )
{
CvRect* r = (CvRect*)cvGetSeqElem( faces, i );
CvMat small_img_roi;
CvSeq* nested_objects;
CvPoint center;
CvPoint center_1;
CvScalar color = colors[i%8];
int radius,radius_1;
center.x = cvRound((r->x + r->width*0.5)*scale);
center.y = cvRound((r->y + r->height*0.5)*scale);
radius = cvRound((r->width + r->height)*0.25*scale);
cvCircle( img, center, radius, color, 3, 8, 0 );
if( !nested_cascade )
continue;
else
printf("not continuing!\n");
cvGetSubRect( small_img, &small_img_roi, *r );
nested_objects = cvHaarDetectObjects( &small_img_roi, nested_cascade, storage,
1.1, 2, 0
|CV_HAAR_DO_CANNY_PRUNING, ,
cvSize(0, 0) );
for( j = 0; j < (nested_objects ? nested_objects->total : 0); j++ )
{
printf("start of nested objects loop!\n");
CvRect* nr = (CvRect*)cvGetSeqElem( nested_objects, j );
center_1.x = cvRound((r->x + nr->x + nr->width*0.5)*scale);
center_1.y = cvRound((r->y + nr->y + nr->height*0.5)*scale);
radius_1 = cvRound((nr->width + nr->height)*0.25*scale);
if(center_1.x+radius_1<center.x+radius&& center.x-radius<center_1.x-radius_1 && center_1.y<center.y+radius&& center.y<center_1.y+radius )
{
cvCircle( img, center_1, radius_1, color, 3, 8, 0 );
}
else
printf("cant find thy eyes!\n");
}
然而,它并不是很成功。在尝试调试它时,我尝试评论他们为脸部绘制圆圈的部分,这导致根本没有绘制圆圈。这使我得出结论,也许嵌套对象的部分不起作用。因此,我在代码中实现了几个printfs并监视控制台。但在观察控制台后,我得出的结论是,部分嵌套对象确实无效。但是,由于嵌套对象部分类似于面部检测部分,我仍然无法理解为什么会这样。因此,如果面部检测部分工作,嵌套的目标代码是否也应该起作用?
(大于_≤)
答案 0 :(得分:1)
请提供更多信息:
关于您的代码:
nested_cascade
变量而不进行初始化。通常 - 尝试使用openCV中的haarcascade_mcs_eyepair_big.xml
文件使用以下参数:( image,cascade,storage,1.1,3,0,cvSize())或者甚至使用较小的scaleFactor参数值。
我在编写BSc论文(Eyetracking系统)时做了类似的事情,并以非常简单的解决方案结束。一开始我试图找到所有“物体”的内部面孔,然后决定哪一个是左眼,哪一个是正确的,但现在我不认为这是一个很好的解决方案。
最后,我决定尝试在面部(haarcascade_mcs_eyepair_big.xml
)内同时搜索双眼(来自opencv的对 - haarcascade_frontalface_default.xml
文件)并且我发现它是更好的解决方案。它更快,更简单(您不必决定哪个对象是您正在寻找的对象 - 如果您尝试使用ragard以前的眼睛位置和其他一些东西,这可能会非常复杂)并且更容易实现。 />
准确性对我来说足够好,而且速度非常高(整个系统 - 大约10-25fps - 这取决于一些事情)。如果您想使用您的代码进行实时眼睛检测,我可以为您提供有关优化的更多详细信息。
答案 1 :(得分:0)
import cv2
#loading cascade
eye_Cascade=cv2.CascadeClassifier('haarcascade_eye.xml')
face_Cascade=cv2.CascadeClassifier('haarcascade_frontalface_default.xml')
def detect(gray,frame):
faces=face_Cascade.detectMultiScale(gray,1.3,5)
for (x,y,w,h) in faces:
cv2.rectangle(frame,(x,y),(x+w ,y+h),(255,0,0),2)
roi_gray=gray[y:y+h,x:x+w]
roi_color=frame[y:y+h,x:x+h]
eyes=eye_Cascade.detectMultiScale(roi_gray,1.1,3)
for(ex,ey,ew,eh) in eyes:
cv2.rectangle(roi_color,(ex,ey),(ex+ew,ey+eh),(0,255,0),2)
return frame
video_capture=cv2.VideoCapture(0) #here 0 is used for inbuilt cam and 1 for
external cam
while True :
_,frame=video_capture.read()
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
canvas = detect(gray, frame)
cv2.imshow('Face and Eye ', canvas)
#exit when user pressed 'q'
if cv2.waitKey(1) & 0xFF == ord('q'):
break
video_capture.release()
cv2.destroyAllWindows()