我试图使用openCV用iPhone相机检测名片的边缘(并绘制它们)。我是这个框架的新手,还有计算机视觉或C ++。
我尝试使用此处解释的解决方案:https://stackoverflow.com/a/14123682/3708095,其中github项目为https://github.com/foundry/OpenCVSquares
它适用于预定义的图像,但我试图使用相机。
为此,我使用CvVideoCameraDelegate protocol
在CVViewController.mm
中实施它,就像他们在http://docs.opencv.org/doc/tutorials/ios/video_processing/video_processing.html中解释一样:
#ifdef __cplusplus
-(void)processImage:(cv::Mat &)matImage
{
//NSLog (@"Processing Image");
dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
matImage = CVSquares::detectedSquaresInImage(matImage, self.tolerance, self.threshold, self.levels, [self accuracy]);
UIImage *image = [[UIImage alloc]initWithCVMat:matImage orientation:UIImageOrientationDown];
dispatch_async(dispatch_get_main_queue(), ^{
self.imageView.image = image;
});
});
}
#endif
编辑:
如果我这样做,它会给我一个EXC_BAD_ACCESS ...
如果我在处理它之前克隆matImage,通过记录它,它似乎处理图像甚至找到矩形,但矩形不会被绘制到图像输出到imageView。
cv::Mat temp = matImage.clone();
dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
UIImage *image = [[UIImage alloc]CVSquares::detectedSquaresInImage(temp, self.tolerance, self.threshold, self.levels, [self accuracy])
orientation:UIImageOrientationDown];
dispatch_async(dispatch_get_main_queue(), ^{
self.imageView.image = image;
});
});
我很确定我错过了什么,可能是因为我没有正确传递某个对象,指向对象的指针等等,而我需要修改的对象则没有。
无论如何,如果这不是正确的方法,我真的很感谢他们做这样的事情的教程或例子,使用openCV或GPUImage(也不熟悉它)......
答案 0 :(得分:0)
所以解决方案实际上非常简单......
而不是尝试使用matImage
来设置imageView.image
,因为CvVideoCamera已经初始化(并链接到),因此只需要在imageView中对matImage
进行实际修改。 )imageView:
self.videoCamera = [[CvVideoCamera alloc]initWithParentView:self.imageView];
最后功能是这样的:
#ifdef __cplusplus
-(void)processImage:(cv::Mat &)matImage
{
matImage = CVSquares::detectedSquaresInImage(matImage, self.angleTolerance, self.threshold, self.levels, self.accuracy);
}
#endif