我正在尝试使用ffmpeg(最新版本)对帧进行解交织。与this问题相关,我可以使用这句话得到我想要的过滤器:
AVFilter *filter = avfilter_get_by_name("yadif");
之后,我打开过滤器上下文:
AVFilterContext *filter_ctx;
avfilter_open(&filter_ctx, filter, NULL);
我的第一个问题是关于这个功能。 Visual Studio警告我,avfilter_open
已被弃用。 哪个替代方案?
之后,我这样做:
avfilter_init_str(filter_ctx, "yadif=1:-1");
总是失败。我尝试过“1:-1
”代替“yadif=1:-1
”,但总是失败,我应该使用哪个参数?
编辑:值“1
”或“2
”,例如,它有效。我发现,使用其中一个值,该函数使用mode=1
或mode=2
。这些值的解释在link。
然后,我有AVFrame *frame
这是我想要去隔行的帧。当最后一句话工作时,我将有过滤器和他的上下文init。 如何将此过滤器应用于我的框架?
感谢您的帮助。
答案 0 :(得分:4)
我不知道你的问题是一年多了,但最近我不得不使用隔行扫描的DVB-TS流,所以我可能能够帮助其他人来处理这个问题。
这些片段来自我写过的已完成的播放器
初始化过滤器图表:
void VideoManager::init_filter_graph(AVFrame *frame) {
if (filter_initialised) return;
int result;
AVFilter *buffer_src = avfilter_get_by_name("buffer");
AVFilter *buffer_sink = avfilter_get_by_name("buffersink");
AVFilterInOut *inputs = avfilter_inout_alloc();
AVFilterInOut *outputs = avfilter_inout_alloc();
AVCodecContext *ctx = ffmpeg.vid_stream.context;
char args[512];
int frame_fix = 0; // fix bad width on some streams
if (frame->width < 704) frame_fix = 2;
else if (frame->width > 704) frame_fix = -16;
snprintf(args, sizeof(args),
"video_size=%dx%d:pix_fmt=%d:time_base=%d/%d:pixel_aspect=%d/%d",
frame->width + frame_fix,
frame->height,
frame->format,// ctx->pix_fmt,
ctx->time_base.num,
ctx->time_base.den,
ctx->sample_aspect_ratio.num,
ctx->sample_aspect_ratio.den);
const char *description = "yadif=1:-1:0";
LOGD("Filter: %s - Settings: %s", description, args);
filter_graph = avfilter_graph_alloc();
result = avfilter_graph_create_filter(&filter_src_ctx, buffer_src, "in", args, NULL, filter_graph);
if (result < 0) {
LOGI("Filter graph - Unable to create buffer source");
return;
}
AVBufferSinkParams *params = av_buffersink_params_alloc();
enum AVPixelFormat pix_fmts[] = { AV_PIX_FMT_GRAY8, AV_PIX_FMT_NONE };
params->pixel_fmts = pix_fmts;
result = avfilter_graph_create_filter(&filter_sink_ctx, buffer_sink, "out", NULL, params, filter_graph);
av_free(params);
if (result < 0) {
LOGI("Filter graph - Unable to create buffer sink");
return;
}
inputs->name = av_strdup("out");
inputs->filter_ctx = filter_sink_ctx;
inputs->pad_idx = 0;
inputs->next = NULL;
outputs->name = av_strdup("in");
outputs->filter_ctx = filter_src_ctx;
outputs->pad_idx = 0;
outputs->next = NULL;
result = avfilter_graph_parse_ptr(filter_graph, description, &inputs, &outputs, NULL);
if (result < 0) LOGI("avfilter_graph_parse_ptr ERROR");
result = avfilter_graph_config(filter_graph, NULL);
if (result < 0) LOGI("avfilter_graph_config ERROR");
filter_initialised = true;
}
处理来自流的视频包时,检查它是否是隔行扫描帧并将帧发送到过滤器。然后,过滤器会将去交错的帧返回给您。
void FFMPEG::process_video_packet(AVPacket *pkt) {
int got;
AVFrame *frame = vid_stream.frame;
avcodec_decode_video2(vid_stream.context, frame, &got, pkt);
if (got) {
if (!frame->interlaced_frame) { // not interlaced
Video.add_av_frame(frame, 0);
} else {
if (!Video.filter_initialised) {
Video.init_filter_graph(frame);
}
av_buffersrc_add_frame_flags(Video.filter_src_ctx, frame, AV_BUFFERSRC_FLAG_KEEP_REF);
int c = 0;
while (true) {
AVFrame *filter_frame = ffmpeg.vid_stream.filter_frame;
int result = av_buffersink_get_frame(Video.filter_sink_ctx, filter_frame);
if (result == AVERROR(EAGAIN) || result == AVERROR(AVERROR_EOF)) break;
if (result < 0) return;
Video.add_av_frame(filter_frame, c++);
av_frame_unref(filter_frame);
}
}
}
}
希望这对任何人都有帮助,因为找到有关ffmpeg的信息很难。