我正在开发将展示视频的iOS应用。 该应用程序通过Bonjour进行对话,Bonjour服务器是另一个有摄像头的设备。 摄像头捕获图像将其称为视频帧,然后通过bonjour将其发送到iOS。
我收到的数据是yuv 4:2:2数据,我需要将其转换为UIImage并设置为图像视图。
我查看了来自apple docs的“GLCameraRipple”示例,这段代码似乎使用了GPU。 我无法弄清楚如何将我收到的数据提供给使用OpenGL ES创建图像的委托方法。
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection
AVCaptureVideoDataOutput的委托方法以及进一步处理代码的方法是使用CMSampleBufferRef的sampleBuffer。
如何将其与我从bonjour服务器获取的数据挂钩,以便我可以编写自己的方法并处理数据以获取图像?