以下是我用来解码工作线程中的rtsp流的代码:
while(1)
{
// Read a frame
if(av_read_frame(pFormatCtx, &packet)<0)
break; // Frame read failed (e.g. end of stream)
if(packet.stream_index==videoStream)
{
// Is this a packet from the video stream -> decode video frame
int frameFinished;
avcodec_decode_video2(pCodecCtx,pFrame,&frameFinished,&packet);
// Did we get a video frame?
if (frameFinished)
{
if (LastFrameOk == false)
{
LastFrameOk = true;
}
// Convert the image format (init the context the first time)
int w = pCodecCtx->width;
int h = pCodecCtx->height;
img_convert_ctx = ffmpeg::sws_getCachedContext(img_convert_ctx, w, h, pCodecCtx->pix_fmt, w, h, ffmpeg::PIX_FMT_RGB24, SWS_BICUBIC, NULL, NULL, NULL);
if (img_convert_ctx == NULL)
{
printf("Cannot initialize the conversion context!\n");
return false;
}
ffmpeg::sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize);
// Convert the frame to QImage
LastFrame = QImage(w, h, QImage::Format_RGB888);
for (int y = 0; y < h; y++)
memcpy(LastFrame.scanLine(y), pFrameRGB->data[0] + y*pFrameRGB->linesize[0], w * 3);
LastFrameOk = true;
} // frameFinished
} // stream_index==videoStream
av_free_packet(&packet); // Free the packet that was allocated by av_read_frame
}
我按照ffmpeg的教程使用了一个while循环来读取数据包并解码视频。 但有没有更有效的方法来实现这一点,比如收到数据包时的事件触发函数?
答案 0 :(得分:1)
我还没有看到任何事件驱动的阅读框架方法,但阅读RTSP流的目的是什么?但我可以提出一些改善绩效的建议。首先,您可以在循环中添加一个非常短暂的睡眠(例如Sleep(1);)。在您的计划中,如果您的目的是:
向用户显示图像:不使用转换为RGB,解码后,生成的帧为YUV420P格式,可以使用GPU直接显示给用户,无需任何CPU使用。几乎所有显卡都支持YUV420P(或YV12)格式。转换为RGB是一项高度耗费CPU的操作,尤其适用于大型图像。
录制(保存)到磁盘:我想录制流以便稍后播放,不需要解码帧。您可以使用OpenRTSP直接记录到磁盘而无需任何CPU使用。
处理实时图像:您可以找到替代算法来处理YUV420P格式而不是RGB。 YUV420P中的Y平面实际上是彩色RGB图像的灰度版本。