我需要在基于Qt的应用程序中从视频中提取帧。使用ffmpeg库我能够将帧作为AVFrames获取,我需要将其转换为QImage以在我的应用程序的其他部分中使用。这种转换需要高效。到目前为止似乎sws_scale()
是正确使用的函数,但我不确定要指定的源和目标像素格式。
答案 0 :(得分:5)
采用以下两步流程,首先将RGB颜色空间中的已解码AVFame
转换为另一个AVFrame
,然后转换为QImage
。它的工作原理相当快。
src_frame = get_decoded_frame();
AVFrame *pFrameRGB = avcodec_alloc_frame(); // intermediate pframe
if(pFrameRGB==NULL) {
;// Handle error
}
int numBytes= avpicture_get_size(PIX_FMT_RGB24,
is->video_st->codec->width, is->video_st->codec->height);
uint8_t *buffer = (uint8_t*)malloc(numBytes);
avpicture_fill((AVPicture*)pFrameRGB, buffer, PIX_FMT_RGB24,
is->video_st->codec->width, is->video_st->codec->height);
int dst_fmt = PIX_FMT_RGB24;
int dst_w = is->video_st->codec->width;
int dst_h = is->video_st->codec->height;
// TODO: cache following conversion context for speedup,
// and recalculate only on dimension changes
SwsContext *img_convert_ctx_temp;
img_convert_ctx_temp = sws_getContext(
is->video_st->codec->width, is->video_st->codec->height,
is->video_st->codec->pix_fmt,
dst_w, dst_h, (PixelFormat)dst_fmt,
SWS_BICUBIC, NULL, NULL, NULL);
QImage *myImage = new QImage(dst_w, dst_h, QImage::Format_RGB32);
sws_scale(img_convert_ctx_temp,
src_frame->data, src_frame->linesize, 0, is->video_st->codec->height,
pFrameRGB->data,
pFrameRGB->linesize);
uint8_t *src = (uint8_t *)(pFrameRGB->data[0]);
for (int y = 0; y < dst_h; y++)
{
QRgb *scanLine = (QRgb *) myImage->scanLine(y);
for (int x = 0; x < dst_w; x=x+1)
{
scanLine[x] = qRgb(src[3*x], src[3*x+1], src[3*x+2]);
}
src += pFrameRGB->linesize[0];
}
如果您找到更有效的方法,请在评论中告诉我
答案 1 :(得分:3)
我知道,为时已晚,但也许有人会发现它很有用。从here我得到了做同样转换的线索,看起来有点短。
所以我创建了QImage,它被重用于每个解码的帧:
QImage img( width, height, QImage::Format_RGB888 );
创建了frameRGB:
frameRGB = av_frame_alloc();
//Allocate memory for the pixels of a picture and setup the AVPicture fields for it.
avpicture_alloc( ( AVPicture *) frameRGB, AV_PIX_FMT_RGB24, width, height);
在第一帧被解码后,我以这种方式创建转换上下文SwsContext(它将用于所有下一帧):
mImgConvertCtx = sws_getContext( codecContext->width, codecContext->height, codecContext->pix_fmt, width, height, AV_PIX_FMT_RGB24, SWS_BICUBIC, NULL, NULL, NULL);
最后,对每个解码帧进行转换:
if( 1 == framesFinished && nullptr != imgConvertCtx )
{
//conversion frame to frameRGB
sws_scale(imgConvertCtx, frame->data, frame->linesize, 0, codecContext->height, frameRGB->data, frameRGB->linesize);
//setting QImage from frameRGB
for( int y = 0; y < height; ++y )
memcpy( img.scanLine(y), frameRGB->data[0]+y * frameRGB->linesize[0], mWidth * 3 );
}
有关具体信息,请参阅link。
答案 2 :(得分:2)
我认为这是一种更简单的方法:
void takeSnapshot(AVCodecContext* dec_ctx, AVFrame* frame)
{
SwsContext* img_convert_ctx;
img_convert_ctx = sws_getContext(dec_ctx->width,
dec_ctx->height,
dec_ctx->pix_fmt,
dec_ctx->width,
dec_ctx->height,
AV_PIX_FMT_RGB24,
SWS_BICUBIC, NULL, NULL, NULL);
AVFrame* frameRGB = av_frame_alloc();
avpicture_alloc((AVPicture*)frameRGB,
AV_PIX_FMT_RGB24,
dec_ctx->width,
dec_ctx->height);
sws_scale(img_convert_ctx,
frame->data,
frame->linesize, 0,
dec_ctx->height,
frameRGB->data,
frameRGB->linesize);
QImage image(frameRGB->data[0],
dec_ctx->width,
dec_ctx->height,
frameRGB->linesize[0],
QImage::Format_RGB888);
image.save("capture.png");
}
答案 3 :(得分:1)
今天,我已经测试直接传递 image->bit()
到swscale
,最后它可以工作,所以它不需要复制到内存。例如:
/* 1. Get frame and QImage to show */
struct my_frame *frame = get_frame(source);
QImage *myImage = new QImage(dst_w, dst_h, QImage::Format_RGBA8888);
/* 2. Convert and write into image buffer */
uint8_t *dst[] = {myImage->bits()};
int linesizes[4];
av_image_fill_linesizes(linesizes, AV_PIX_FMT_RGBA, frame->width);
sws_scale(myswscontext, frame->data, (const int*)frame->linesize,
0, frame->height, dst, linesizes);
答案 4 :(得分:0)
我刚刚发现scanLine只是通过缓冲区寻找..你只需要AVFrame使用AV_PIX_FMT_RGB32和QImage使用QImage :: FORMAT_RGB32。
然后在解码之后只做一个memcpy
memcpy(img.scanLine(0), pFrameRGB->data[0], pFrameRGB->linesize[0] * pFrameRGB->height());
答案 5 :(得分:0)
我在使用其他建议的解决方案时遇到了问题:
我在另一个问题 Converting an AVFrame to QImage with conversion of pixel format 中列出了这个问题,最后找到了使用临时缓冲区的解决方案,可以将其复制到 QImage,然后安全地释放。
因此,请参阅我的答案,以获得完全有效、高效且没有弃用函数调用的实现:https://stackoverflow.com/a/68212609/7360943