跟踪视频中的眼睛瞳孔

时间:2011-11-16 02:01:15

标签: opencv computer-vision eye-tracking

我正在开展一个旨在<强力>追踪眼睛瞳孔的项目。为此,我制作了一个头戴式系统,可以捕捉眼睛的图像。完成了硬件部分我在软件中部分。我正在使用 opencv 。请让我知道跟踪学生的最有效方法是什么。 Houghcircles 效果不佳。

之后我还尝试了 HSV 过滤器,这里是代码和 链接到原始图像和处理过的图像的屏幕截图。请帮我解决这个问题。该链接还包含我在此代码中使用的眼睛瞳孔的视频。

https://picasaweb.google.com/118169326982637604860/16November2011?authuser=0&authkey=Gv1sRgCPKwwrGTyvX1Aw&feat=directlink

代码:

include "cv.h"

include"highgui.h"

IplImage* GetThresholdedImage(IplImage* img)
{

    IplImage *imgHSV=cvCreateImage(cvGetSize(img),8,3);
    cvCvtColor(img,imgHSV,CV_BGR2HSV);
    IplImage *imgThresh=cvCreateImage(cvGetSize(img),8,1);
    cvInRangeS(imgHSV,cvScalar(0, 84, 0, 0),cvScalar(179, 256, 11, 0),imgThresh);
    cvReleaseImage(&imgHSV);
    return imgThresh;
}

void main(int *argv,char **argc)
{

    IplImage *imgScribble= NULL;
    char c=0;
    CvCapture *capture;
    capture=cvCreateFileCapture("main.avi");

    if(!capture)
    {
        printf("Camera could not be initialized");
        exit(0);
    }
    cvNamedWindow("Simple");
    cvNamedWindow("Thresholded");

    while(c!=32)
    {
        IplImage *img=0;
        img=cvQueryFrame(capture);
        if(!img)
            break;
        if(imgScribble==NULL)
            imgScribble=cvCreateImage(cvGetSize(img),8,3);

        IplImage *timg=GetThresholdedImage(img);
        CvMoments *moments=(CvMoments*)malloc(sizeof(CvMoments));
        cvMoments(timg,moments,1);

        double moment10 = cvGetSpatialMoment(moments, 1, 0);
        double moment01 = cvGetSpatialMoment(moments, 0, 1);
        double area = cvGetCentralMoment(moments, 0, 0);

        static int posX = 0;
        static int posY = 0;

        int lastX = posX;
        int lastY = posY;

        posX = moment10/area;
        posY = moment01/area;
         // Print it out for debugging purposes
        printf("position (%d,%d)\n", posX, posY);
        // We want to draw a line only if its a valid position
        if(lastX>0 && lastY>0 && posX>0 && posY>0)
        {
            // Draw a yellow line from the previous point to the current point
            cvLine(imgScribble, cvPoint(posX, posY), cvPoint(lastX, lastY), cvScalar(0,255,255), 5);
        }
        // Add the scribbling image and the frame...

        cvAdd(img, imgScribble, img);

        cvShowImage("Simple",img);
        cvShowImage("Thresholded",timg);
        c=cvWaitKey(3);
        cvReleaseImage(&timg);
        delete moments;

    }
    //cvReleaseImage(&img);
    cvDestroyWindow("Simple");
    cvDestroyWindow("Thresholded");

}

我能够跟踪眼睛并准确找到瞳孔的中心坐标。

首先,我对头戴式摄像头拍摄的图像进行了阈值处理。之后,我使用了轮廓查找算法,然后找到了所有轮廓的质心。这给了我眼睛瞳孔的中心坐标,这种方法实时工作正常,并且还可以非常精确地检测眨眼。

现在,我的目标是将此功能嵌入到游戏中(赛车游戏)。其中如果我向左/向右看,那么汽车向左/向右移动,如果我眨眼,汽车减速。我现在该怎么办?我需要一个游戏引擎吗?

我听说过一些与visual studio 2010兼容的开源游戏引擎(统一等)。可行吗???如果是,我该怎么办?

3 个答案:

答案 0 :(得分:10)

我是SimpleCV的开发者之一。我们维护一个用于计算机视觉的开源python库。您可以在SimpleCV.org下载。 SimpleCV非常适合通过黑客攻击命令行来解决这些类型的问题。我只能用几行代码提取瞳孔。你走了:

img = Image("eye4.jpg") # load the image
bm = BlobMaker() # create the blob extractor
# invert the image so the pupil is white, threshold the image, and invert again
# and then extract the information from the image
blobs = bm.extractFromBinary(img.invert().binarize(thresh=240).invert(),img)

if(len(blobs)>0): # if we got a blob
    blobs[0].draw() # the zeroth blob is the largest blob - draw it
    locationStr = "("+str(blobs[0].x)+","+str(blobs[0].y)+")"
    # write the blob's centroid to the image
    img.dl().text(locationStr,(0,0),color=Color.RED)
    # save the image
    img.save("eye4pupil.png")
    # and show us the result.
    img.show()

Here are the results.

因此,接下来的步骤是使用某种跟踪器(如卡尔曼滤波器)来稳健地跟踪瞳孔。您可能希望将眼睛建模为球体并以球坐标(即theta和phi)跟踪瞳孔的质心。您还需要编写一些代码来检测闪烁事件,以便在用户闪烁时系统不会完全不稳定。我建议使用canny边缘检测器找到图像中最大的水平线,并假设它们是眼睑。我希望这会有所帮助,请告诉我们您的工作进展情况。

答案 1 :(得分:2)

这一切都取决于你的系统必须有多好。如果这是一个2个月的大学项目,可以找到并跟踪一些blob或使用现成的解决方案,就像Kscottz推荐的那样。

但如果你的目标是拥有一个更严肃的系统,你必须更深入。

我建议您采用的方法是检测面部兴趣点。一个很好的例子是Active Appearance Models,它似乎是追踪面孔的最佳选择

http://www2.imm.dtu.dk/~aam/

http://www.youtube.com/watch?v=M1iu__viJN8

它要求您对计算机视觉算法,良好的编程技能和一些工作有充分的了解。但结果将是值得的。

不要被演示显示全面跟踪的事实所迷惑。你可以训练它来追踪任何东西:手,眼睛,花朵或叶子等。

(在开始使用AAM之前,您可能需要了解有关其他面部跟踪算法的更多信息。它们可能对您更好)

答案 2 :(得分:1)

这是我的解决方案,我能够跟踪眼睛并准确找到瞳孔的中心坐标。

首先,我对头戴式摄像头拍摄的图像进行了阈值处理。之后,我使用了轮廓查找算法,然后找到了所有轮廓的质心。这给了我眼睛瞳孔的中心坐标,这种方法实时工作正常,并且还可以非常精确地检测眨眼。