通过iPhone上的着色器处理视频时捕获视频

时间:2011-03-08 04:38:26

标签: iphone objective-c opengl-es avfoundation

我正在尝试开发一款处理/过滤和录制视频的iPhone应用。

我有两个示例应用程序,它们具有我需要的方面,并且正在尝试将它们组合在一起。

  1. AVCamDemo from the WWDC10 sample code package(需要Apple Developer ID)
    这涉及捕获/录制视频。

  2. Brad Larson的ColorTracking示例应用程序引用here
    这涉及使用OpenGL ES实时处理视频

  3. 我试图将两者结合起来时陷入困境。

    我一直尝试做的是使用AVCaptureVideoOutputAVCaptureVideoDataOutputSampleBufferProtocol通过OpenGL ES处理/过滤视频帧(如在-2-中),同时以某种方式使用AVCaptureMovieFileOutput记录已处理的视频(如-1-)。

    这种方法可行吗?如果是这样,我如何在AVSession

    中设置连接

    或者我是否需要使用AVCaptureVideoDataOutputSampleBufferProtocol来处理/过滤视频,然后将各个帧重新组合成电影 - 而不使用AVCaptureMovieFileOutput来保存电影文件?

    非常感谢任何有关实现这一目标的最佳方法的建议!

1 个答案:

答案 0 :(得分:1)

http://developer.apple.com/library/ios/#qa/qa1702/_index.html

您可以尝试使用AV Foundation捕获视频这个链接,非常有帮助。希望你的一个问题能得到解决