我正在使用mpeg-4和h264流
首先我尝试转换为rgb24并使用imagemagic制作灰度,但它不起作用
while(av_read_frame(pFormatCtx, &packet)>=0)
{
// Is this a packet from the video stream?
if(packet.stream_index==videoStream)
{
// Decode video frame
avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished,
&packet);
// Did we get a video frame?
if(frameFinished)
{
f++;
//this->fram->Clear();
// if (pFrame->pict_type == AV_PICTURE_TYPE_I) wxMessageBox("I cadr");
// if (pFrame->pict_type != AV_PICTURE_TYPE_I)
// printMVMatrix(f, pFrame, pCodecCtx);
pFrameRGB->linesize[0]= pCodecCtx->width*3; // in case of rgb4 one plane
sws_scale(swsContext, pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize);
Magick::Blob* m_blob = new Magick::Blob(pFrameRGB->data,pCodecCtx->width*pCodecCtx->height*3);
Magick::Image* image =new Magick::Image(*m_blob); // this doesnotwork
image->quantizeColorSpace( Magick::GRAYColorspace );
image->quantizeColors( 256 );
image->quantize( );
但是ffmpeg给了我YUV图片?!所以只需要Y组件,如何获得它?获得Ypicture [x] [y]
答案 0 :(得分:4)
我假设您已将swscale配置为YUV420p色彩空间。 420P表示4:2:0平面。平面意味着颜色通道是分开的。
亮度数据(Y)存储在pFrame-> data [0]的缓冲点中(Cb和Cr分别在pFrame-> data [1]和pFrame-> data [2]中)。在YUV420中,Y平面是每像素1个字节。
因此:
uint8_t getY(int x, int y, AVFrame *f)
{
return f->data[0][(y*f->linesize)+x];
}