我一直在探索iOS上的选项来实现原始H.264流的硬件加速解码,到目前为止我只发现唯一的选择是将H.264流写入MP4文件,然后通过文件到AVAssetReader的实例。尽管这种方法有效,但它并不特别适用于实时应用。 AVFoundation参考表明存在可以显示压缩视频帧的CALayer(AVSampleBufferDisplayLayer),我相信这将是上述方法的有效替代方案。不幸的是,该层仅适用于OSX。我想提交一个附魔雷达但是在我这样做之前我想知道有这个层经验的人如果确实可以用来显示H.264原始数据,如果在iOS上可用的话。目前在我的应用程序中,解压缩的YUV帧通过openGLES呈现。使用这一层意味着我不再需要使用openGLES了吗?