关键帧之间的FFMPEG解码工件

时间:2013-12-30 17:37:27

标签: c++ video ffmpeg decoding

我在使用ffmpegs api解码视频时遇到过伪影。在我假设为中间帧的情况下,伪像仅从帧中的主动运动缓慢构建。这些工件构建为50-100帧,直到我假设关键帧重置它们为止。然后正确解码帧,并且工件再次构建。

困扰我的一件事是我有一些30fps(h264)正常工作的视频样本,但我所有的60fps视频(h264)都遇到了问题。

我目前没有足够的声誉来发布图片,所以希望这个链接能够正常工作。 http://i.imgur.com/PPXXkJc.jpg

int numBytes;
int frameFinished;
AVFrame* decodedRawFrame;
AVFrame* rgbFrame;

    //Enum class for decoding results, used to break decode loop when a frame is gathered
DecodeResult retResult = DecodeResult::Fail;

decodedRawFrame = av_frame_alloc();
rgbFrame = av_frame_alloc();
if (!decodedRawFrame) {
    fprintf(stderr, "Could not allocate video frame\n");
    return DecodeResult::Fail;
}

numBytes = avpicture_get_size(PIX_FMT_RGBA, mCodecCtx->width,mCodecCtx->height);
uint8_t* buffer = (uint8_t *)av_malloc(numBytes*sizeof(uint8_t));

avpicture_fill((AVPicture *) rgbFrame, buffer, PIX_FMT_RGBA, mCodecCtx->width, mCodecCtx->height);

AVPacket packet;

while(av_read_frame(mFormatCtx, &packet) >= 0 && retResult != DecodeResult::Success)
{
    // Is this a packet from the video stream?
    if (packet.stream_index == mVideoStreamIndex)
    {
        // Decode video frame
        int decodeValue = avcodec_decode_video2(mCodecCtx, decodedRawFrame, &frameFinished, &packet);

        // Did we get a video frame?
        if (frameFinished)// && rgbFrame->pict_type != AV_PICTURE_TYPE_NONE )
        {
            // Convert the image from its native format to RGB
            int SwsFlags = SWS_BILINEAR;
            // Accurate round clears up a problem where the start
                            // of videos have green bars on them
            SwsFlags |= SWS_ACCURATE_RND;
            struct SwsContext *ctx = sws_getCachedContext(NULL, mCodecCtx->width, mCodecCtx->height, mCodecCtx->pix_fmt, mCodecCtx->width, mCodecCtx->height, 
                PIX_FMT_RGBA, SwsFlags, NULL, NULL, NULL);
            sws_scale(ctx, decodedRawFrame->data, decodedRawFrame->linesize, 0, mCodecCtx->height, rgbFrame->data, rgbFrame->linesize);

            //if(count%5 == 0 && count < 105)
            //  DebugSavePPMImage(rgbFrame, mCodecCtx->width, mCodecCtx->height, count);

            ++count;
            // Viewable frame is a struct to hold buffer and frame together in a queue
            ViewableFrame frame;
            frame.buffer = buffer;
            frame.frame = rgbFrame;
            mFrameQueue.push(frame);


            retResult = DecodeResult::Success;

            sws_freeContext(ctx);
        }
    }

    // Free the packet that was allocated by av_read_frame
    av_free_packet(&packet);
}

// Check for end of file leftover frames
if(retResult != DecodeResult::Success)
{
    int result = av_read_frame(mFormatCtx, &packet);
    if(result < 0)
        isEoF = true;
    av_free_packet(&packet); 
}   

// Free the YUV frame
av_frame_free(&decodedRawFrame);

我正在尝试构建已解码帧的队列,然后根据需要使用并释放。我的帧分离导致中间帧被错误地解码了吗?一旦我成功收集了一帧,我也打破了解码循环(Decode :: Success,我见过的大多数例子都倾向于遍历整个视频。

所有编解码器竞争,视频流信息和格式上下文的设置完全如https://github.com/chelyaev/ffmpeg-tutorial/blob/master/tutorial01.c

的主要功能所示

任何建议都将不胜感激。

1 个答案:

答案 0 :(得分:2)

如果有人发现自己处于类似位置,请参考。显然,对于某些较旧版本的FFMPEG,使用sws_scale转换图像而不更改最终帧的实际尺寸时会出现问题。相反,如果您使用以下命令为SwsContext创建一个标志:

int SwsFlags = SWS_BILINEAR; //任何你想要的 SwsFlags | = SWS_ACCURATE_RND; //在引擎盖下强制ffmpeg使用与缩放相同的逻辑

SWS_ACCURATE_RND会降低性能,但对于常规视频,它可能并不明显。这将消除沿着纹理边缘的绿色条纹或绿色条纹(如果存在)。

我想感谢多媒体迈克和乔治Y,他们也是正确的,因为我解码帧的方式并没有正确保存数据包,这就是导致视频工件从之前的帧构建的原因。