我想一劳永逸地知道,在FFMPEG中,时基收费和重新缩放是如何运作的。 在回答这个问题之前,我做了一些研究,发现了许多有争议的答案,这使得它更加令人困惑。 因此,根据官方FFMPEG examples,必须
将编解码器中的输出数据包时间戳值重新调整为流时基
有这样的事情:
pkt->pts = av_rescale_q_rnd(pkt->pts, *time_base, st->time_base, AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX);
pkt->dts = av_rescale_q_rnd(pkt->dts, *time_base, st->time_base, AV_ROUND_NEAR_INF|AV_ROUND_PASS_MINMAX);
pkt->duration = av_rescale_q(pkt->duration, *time_base, st->time_base);
但在this question中,一个人向我提出了类似的问题,他给出了更多的例子,他们每个人都做了不同的事情。与所有这些方式都很好的答案相反,对我来说只有以下方法有效:
frame->pts += av_rescale_q(1, video_st->codec->time_base, video_st->time_base);
在我的应用程序中,我在FFMPEG API外以60 fps生成视频数据包(h264),然后将它们写入mp4容器。
我明确地设定了:
video_st->time_base = {1,60};
video_st->r_frame_rate = {60,1};
video_st->codec->time_base = {1 ,60};
我看到的第一个奇怪的事情发生在我为输出格式上下文编写标题之后:
AVDictionary *opts = nullptr;
int ret = avformat_write_header(mOutputFormatContext, &opts);
av_dict_free(&opts);
之后,video_st->time_base
填充:
num = 1;
den = 15360
我不明白为什么。
我想要有人请我这样做。接下来,在写作框架之前我会计算 PTS用于数据包。在我的情况下,PTS = DTS,因为我根本不使用B帧。
我必须这样做:
const int64_t duration = av_rescale_q(1, video_st->codec->time_base, video_st->time_base);
totalPTS += duration; //totalPTS is global variable
packet->pts = totalPTS ;
packet->dts = totalPTS ;
av_write_frame(mOutputFormatContext, mpacket);
我没有得到它,为什么编解码器和流具有不同的time_base值,即使我明确地将它们设置为相同。因为我看到av_rescale_q
始终用于计算持续时间的所有示例,我真的希望有人解释这一点。
另外,作为比较,为了实验,我决定尝试为WEBM容器编写流。所以我根本不使用libav输出流。 我只抓取用于编码MP4的相同数据包并将其手动写入EBML stream。在这种情况下,我计算这样的持续时间:
const int64_t duration =
( video_st->codec->time_base.num / video_st->codec->time_base.den) * 1000;
WEBM需要乘以1000,因为时间戳以毫秒为单位显示在该容器中。这样可行。那么为什么在MP4流编码的情况下,time_base有差异需要重新调整?
答案 0 :(得分:0)
ffmpeg的这种行为也使我感到困惑。用户在这里进行了一些讨论-this comment by the author。但是解决方案只是解决15360时基,而不是对其施加控制。
从发贴者在该论坛主题中指出的来源(http://ffmpeg.org/pipermail/libav-user/2018-January/010843.html,搜索“ * = 2”)来看,就我所知,它看起来并不容易避免。看来您的选择是让time_base更改,或者选择> = 10000,然后将其保持不变。