我在使用iOS SDK将结果显示到preivewLayer时遇到问题。在理解如何用已处理的框架“替换”捕获的框架时,我需要您的一些建议。
事实是:我有一个非常标准的AVCapture配置应用程序与OpenCV框架混合。
-(void)captureOutput... {
// I think that is here where I have to do operations... so
// for example a simple RGB->GRAY...
UIImage* img = [[UIImage alloc] initWithCMSampleBuffer:sampleBuffer];
cv::Mat m_img;
m_img = [img CVMat];
// you can do this using m_img both as a src and dst
cv::cvtColor( m_img, m_img, CV_BGR2GRAY );
img = [[UIImage alloc] initWithCvMat:m_img];
[previewLayer setContent:[img CGImage]];
}
显然这不是那么正确。例如,新内容的大小未正确调整大小,而捕获的帧只是因为我设置了
[previewLayer setVideoGravity:AVLayerVideoGravityResizeAspect];
但“最大”的问题是我处理过的图像位于捕获的帧后面,视频非常流畅,而我处理过的视频(框架后面)不是那么流畅(即使我什么都不做,我直接分配了相同的图像)。
你们中的任何人都可以帮助我理解如何将处理过的图像直接应用到previewLayer上(在这种情况下使用OpenCV)。
非常感谢...