如何从AVFrame获取亮度图片?

时间:2014-04-21 10:48:37

标签: c++ ffmpeg yuv

我正在使用mpeg-4和h264流

首先我尝试转换为rgb24并使用imagemagic制作灰度,但它不起作用

while(av_read_frame(pFormatCtx, &packet)>=0)
    {
        // Is this a packet from the video stream?
        if(packet.stream_index==videoStream)
        {
            // Decode video frame
            avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished,
                                  &packet);

            // Did we get a video frame?
            if(frameFinished)
            {
                f++;
                //this->fram->Clear();
               // if (pFrame->pict_type == AV_PICTURE_TYPE_I) wxMessageBox("I cadr");
               // if (pFrame->pict_type != AV_PICTURE_TYPE_I)
               // printMVMatrix(f, pFrame, pCodecCtx);
                pFrameRGB->linesize[0]= pCodecCtx->width*3; // in case of rgb4  one plane

                sws_scale(swsContext, pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize);


                Magick::Blob* m_blob = new Magick::Blob(pFrameRGB->data,pCodecCtx->width*pCodecCtx->height*3);
                Magick::Image* image =new Magick::Image(*m_blob); // this doesnotwork

                image->quantizeColorSpace( Magick::GRAYColorspace );
                image->quantizeColors( 256 );
                image->quantize( );

但是ffmpeg给了我YUV图片?!所以只需要Y组件,如何获得它?获得Ypicture [x] [y]

1 个答案:

答案 0 :(得分:4)

我假设您已将swscale配置为YUV420p色彩空间。 420P表示4:2:0平面。平面意味着颜色通道是分开的。

亮度数据(Y)存储在pFrame-> data [0]的缓冲点中(Cb和Cr分别在pFrame-> data [1]和pFrame-> data [2]中)。在YUV420中,Y平面是每像素1个字节。

因此:

uint8_t getY(int x, int y, AVFrame *f)
{
    return f->data[0][(y*f->linesize)+x];
}