AVCaptureVideoPreviewLayer和OpenCV

时间:2013-07-04 17:28:30

标签: iphone ios calayer avcapture

我在使用iOS SDK将结果显示到preivewLayer时遇到问题。在理解如何用已处理的框架“替换”捕获的框架时,我需要您的一些建议。

事实是:我有一个非常标准的AVCapture配置应用程序与OpenCV框架混合。

-(void)captureOutput... {
    // I think that is here where I have to do operations... so
    // for example a simple RGB->GRAY...
    UIImage* img = [[UIImage alloc] initWithCMSampleBuffer:sampleBuffer];
    cv::Mat m_img; 

    m_img = [img CVMat];

    // you can do this using m_img both as a src and dst
    cv::cvtColor( m_img, m_img, CV_BGR2GRAY );

    img = [[UIImage alloc] initWithCvMat:m_img]; 

    [previewLayer setContent:[img CGImage]];

}

显然这不是那么正确。例如,新内容的大小未正确调整大小,而捕获的帧只是因为我设置了

[previewLayer setVideoGravity:AVLayerVideoGravityResizeAspect];

但“最大”的问题是我处理过的图像位于捕获的帧后面,视频非常流畅,而我处理过的视频(框架后面)不是那么流畅(即使我什么都不做,我直接分配了相同的图像)。

你们中的任何人都可以帮助我理解如何将处理过的图像直接应用到previewLayer上(在这种情况下使用OpenCV)。

非常感谢...

0 个答案:

没有答案