GPUImage个人相机逻辑

时间:2014-09-17 11:48:10

标签: objective-c gpuimage core-image cifilter ciimage

我的应用程序有很多相机逻辑功能。

我在AVCaptureOutput中使用了CoreImage过滤器,直到现在才在GLKView中显示CIImage。

现在我想将CIImage与CIFilter混合在一起。但是在“AVCaptureOutput-Loop”中,CoreImage过滤器链永远不会结束。

所以我想用GPUImage替换CoreImage函数。

没有GPUImageVideoCamera或GPUImageStillCamera有没有办法,所以我有自己的AVCaptureOutput,例如:

CMSampleBufferRef or CVPixelBufferRef > GPUImage > filter and store the image for the next AVCaptureOutput call > Display in my GLKView

由于

PS:抱歉我的英文不好;)

1 个答案:

答案 0 :(得分:0)

您仍然可以将GPUImageVideoCamera或GPUImageStillCamera用于您所描述的内容。 GPUImageBuffer会将处理后的图像从一次传递缓存到缓冲区(直到缓冲区),并将其释放延迟一帧。除此之外,我还将它用于低通滤波。

然后,您可以将操作的输出提供给GPUImageView或纹理,可以在GLKView中使用。