我正在尝试开发一款处理/过滤和录制视频的iPhone应用。
我有两个示例应用程序,它们具有我需要的方面,并且正在尝试将它们组合在一起。
AVCamDemo from the WWDC10 sample code package(需要Apple Developer ID)
这涉及捕获/录制视频。
Brad Larson的ColorTracking示例应用程序引用here
这涉及使用OpenGL ES实时处理视频
我试图将两者结合起来时陷入困境。
我一直尝试做的是使用AVCaptureVideoOutput
和AVCaptureVideoDataOutputSampleBufferProtocol
通过OpenGL ES处理/过滤视频帧(如在-2-中),同时以某种方式使用AVCaptureMovieFileOutput
记录已处理的视频(如-1-)。
这种方法可行吗?如果是这样,我如何在AVSession
?
或者我是否需要使用AVCaptureVideoDataOutputSampleBufferProtocol
来处理/过滤视频,然后将各个帧重新组合成电影 - 而不使用AVCaptureMovieFileOutput
来保存电影文件?
非常感谢任何有关实现这一目标的最佳方法的建议!
答案 0 :(得分:1)
http://developer.apple.com/library/ios/#qa/qa1702/_index.html
您可以尝试使用AV Foundation捕获视频这个链接,非常有帮助。希望你的一个问题能得到解决