从libswscale获取PIX_FMT_YUYV422

时间:2009-09-21 20:33:57

标签: cocoa ffmpeg core-video

我正在尝试学习使用与Cocoa不同的ffmpeg库,我正试图在Core Video的帮助下显示帧。看起来我已经让CV回调起作用了,它会得到我试图放入CVImageBufferRef的帧,后来我用Core Image绘制。

问题是我试图让PIX_FMT_YUYV422与libswscale一起使用,但是一旦我将像素格式更改为除PIX_FMT_YUV420P以外的任何其他格式,它就会崩溃EXC_BAD_ACCESS。

只要我使用YUV420P,程序就会运行,但它无法正常显示。我怀疑不支持像素格式,所以我想试试PIX_FMT_YUYV422。

我之前已经运行过,并使用PIX_FMT_RGB24成功编写了PPM文件。出于某种原因,它现在只是在我身上崩溃了,我看不出可能出现的问题。

我在这里有点头脑,但这是我更喜欢学习的方式。 :)

以下是我分配AVFrame的方法:

inFrame = avcodec_alloc_frame();
outFrame = avcodec_alloc_frame();
int frameBytes = avpicture_get_size(PIX_FMT_YUYV422, cdcCtx->width, cdcCtx->height);


uint8_t *frameBuffer = malloc(frameBytes);
avpicture_fill((AVPicture *)outFrame, frameBuffer, PIX_FMT_YUYV422, cdcCtx->width, cdcCtx->height);

然后我尝试像swscale一样运行它:

static struct SwsContext *convertContext;


 if (convertContext == NULL) {
  int w = cdcCtx->width;
  int h = cdcCtx->height;
  convertContext = sws_getContext(w, h, cdcCtx->pix_fmt, outWidth, outHeight, PIX_FMT_YUYV422, SWS_BICUBIC, NULL, NULL, NULL);
  if (convertContext == NULL) {
   NSLog(@"Cannot initialize the conversion context!");
   return NO;
  }
 }

 sws_scale(convertContext, inFrame->data, inFrame->linesize, 0, outHeight, outFrame->data, outFrame->linesize);

最后我尝试将其写入像素缓冲区以与Core Image一起使用:

int ret = CVPixelBufferCreateWithBytes(0, outWidth, outHeight, kYUVSPixelFormat, outFrame->data[0], outFrame->linesize[0], 0, 0, 0, &currentFrame);

运行420P,但它与像素缓冲区的kYUVSPixelformat不匹配,据我所知它不接受YUV420。

我真的很感激任何帮助,无论多小,都可以帮助我挣扎。 :)

2 个答案:

答案 0 :(得分:1)

这当然不是一个完整的代码示例,因为您从未将任何内容解码到输入框架中。如果你这样做,它看起来是正确的。

你也不需要填写输出图片,甚至不需要为它分配AVFrame。

答案 1 :(得分:0)

YUV420P是一种平面格式。因此,AVFrame.data[0]不是全部。

我看错了
int ret = CVPixelBufferCreateWithBytes(0, outWidth, outHeight, kYUVSPixelFormat, outFrame->data[0], outFrame->linesize[0], 0, 0, 0, &currentFrame);

对于平面格式,您必须从AVFrame.data[0]读取数据块,直到AVFrame.data[3]