C ++ - 在ffmpeg中应用过滤器

时间:2015-07-01 13:43:28

标签: c++ ffmpeg

我正在尝试使用ffmpeg(最新版本)对帧进行解交织。与this问题相关,我可以使用这句话得到我想要的过滤器:

AVFilter *filter = avfilter_get_by_name("yadif");

之后,我打开过滤器上下文:

AVFilterContext *filter_ctx;
avfilter_open(&filter_ctx, filter, NULL);

我的第一个问题是关于这个功能。 Visual Studio警告我,avfilter_open已被弃用。 哪个替代方案?

之后,我这样做:

avfilter_init_str(filter_ctx, "yadif=1:-1");

总是失败。我尝试过“1:-1”代替“yadif=1:-1”,但总是失败,我应该使用哪个参数?

编辑:值“1”或“2”,例如,它有效。我发现,使用其中一个值,该函数使用mode=1mode=2。这些值的解释在link

然后,我有AVFrame *frame这是我想要去隔行的帧。当最后一句话工作时,我将有过滤器和他的上下文init。 如何将此过滤器应用于我的框架?

感谢您的帮助。

1 个答案:

答案 0 :(得分:4)

我不知道你的问题是一年多了,但最近我不得不使用隔行扫描的DVB-TS流,所以我可能能够帮助其他人来处理这个问题。

这些片段来自我写过的已完成的播放器

初始化过滤器图表:

void VideoManager::init_filter_graph(AVFrame *frame) {
    if (filter_initialised) return;

    int result;

    AVFilter *buffer_src   = avfilter_get_by_name("buffer");
    AVFilter *buffer_sink  = avfilter_get_by_name("buffersink");
    AVFilterInOut *inputs  = avfilter_inout_alloc();
    AVFilterInOut *outputs = avfilter_inout_alloc();

    AVCodecContext *ctx = ffmpeg.vid_stream.context;
    char args[512];

    int frame_fix = 0; // fix bad width on some streams
    if (frame->width < 704) frame_fix = 2;
    else if (frame->width > 704) frame_fix = -16;

    snprintf(args, sizeof(args),
         "video_size=%dx%d:pix_fmt=%d:time_base=%d/%d:pixel_aspect=%d/%d",
         frame->width + frame_fix,
         frame->height,
         frame->format,// ctx->pix_fmt,
         ctx->time_base.num,
         ctx->time_base.den,
         ctx->sample_aspect_ratio.num,
         ctx->sample_aspect_ratio.den);

    const char *description = "yadif=1:-1:0";

    LOGD("Filter: %s - Settings: %s", description, args);

    filter_graph = avfilter_graph_alloc();
    result = avfilter_graph_create_filter(&filter_src_ctx, buffer_src, "in", args, NULL, filter_graph);
    if (result < 0) {
        LOGI("Filter graph - Unable to create buffer source");
        return;
    }

    AVBufferSinkParams *params = av_buffersink_params_alloc();
    enum AVPixelFormat pix_fmts[] = { AV_PIX_FMT_GRAY8, AV_PIX_FMT_NONE };

    params->pixel_fmts = pix_fmts;
    result = avfilter_graph_create_filter(&filter_sink_ctx, buffer_sink, "out", NULL, params, filter_graph);
    av_free(params);
    if (result < 0) {
        LOGI("Filter graph - Unable to create buffer sink");
        return;
    }

    inputs->name        = av_strdup("out");
    inputs->filter_ctx  = filter_sink_ctx;
    inputs->pad_idx     = 0;
    inputs->next        = NULL;

    outputs->name       = av_strdup("in");
    outputs->filter_ctx = filter_src_ctx;
    outputs->pad_idx    = 0;
    outputs->next       = NULL;

    result = avfilter_graph_parse_ptr(filter_graph, description, &inputs, &outputs, NULL);
    if (result < 0) LOGI("avfilter_graph_parse_ptr ERROR");

    result = avfilter_graph_config(filter_graph, NULL);
    if (result < 0) LOGI("avfilter_graph_config ERROR");

    filter_initialised = true;
}

处理来自流的视频包时,检查它是否是隔行扫描帧并将帧发送到过滤器。然后,过滤器会将去交错的帧返回给您。

void FFMPEG::process_video_packet(AVPacket *pkt) {
    int got;
    AVFrame *frame = vid_stream.frame;
    avcodec_decode_video2(vid_stream.context, frame, &got, pkt);

    if (got) {
        if (!frame->interlaced_frame) {     // not interlaced
            Video.add_av_frame(frame, 0);
        } else {
            if (!Video.filter_initialised) {
                Video.init_filter_graph(frame);
            }

            av_buffersrc_add_frame_flags(Video.filter_src_ctx, frame, AV_BUFFERSRC_FLAG_KEEP_REF);
            int c = 0;

            while (true) {
                AVFrame *filter_frame = ffmpeg.vid_stream.filter_frame;

                int result = av_buffersink_get_frame(Video.filter_sink_ctx, filter_frame);

                if (result == AVERROR(EAGAIN) || result == AVERROR(AVERROR_EOF)) break;
                if (result < 0) return;

                Video.add_av_frame(filter_frame, c++);
                av_frame_unref(filter_frame);
            }
        }
    }
}

希望这对任何人都有帮助,因为找到有关ffmpeg的信息很难。