视频和音频帧的PTS和DTS计算

时间:2015-08-10 10:18:52

标签: c++ audio video ffmpeg mux

我正在从两个不同的线程接收视频H264编码数据和音频G.711 PCM编码数据到mux /写入mov多媒体容器。

作者功能签名如下:

bool WriteAudio(const unsigned char *pEncodedData, size_t iLength);
bool WriteVideo(const unsigned char *pEncodedData, size_t iLength, bool const bIFrame);

添加音频和视频流的功能如下:

AVStream* AudioVideoRecorder::AddMediaStream(enum AVCodecID codecID) {
    Log("Adding stream: %s.", avcodec_get_name(codecID));
    AVCodecContext* pCodecCtx;
    AVStream* pStream;

    /* find the encoder */
    AVCodec* codec = avcodec_find_encoder(codecID);
    if (!codec) {
        LogErr("Could not find encoder for %s", avcodec_get_name(codecID));
        return NULL;
    }

    pStream = avformat_new_stream(m_pFormatCtx, codec);
    if (!pStream) {
        LogErr("Could not allocate stream.");
        return NULL;
    }
    pStream->id = m_pFormatCtx->nb_streams - 1;
    pStream->time_base = (AVRational){1, VIDEO_FRAME_RATE};
    pCodecCtx = pStream->codec;


    switch(codec->type) {
    case AVMEDIA_TYPE_VIDEO:
        pCodecCtx->codec_id = codecID;
        pCodecCtx->bit_rate = VIDEO_BIT_RATE;
        pCodecCtx->width = PICTURE_WIDTH;
        pCodecCtx->height = PICTURE_HEIGHT;
        pCodecCtx->gop_size = VIDEO_FRAME_RATE;
        pCodecCtx->pix_fmt = PIX_FMT_YUV420P;
        m_pVideoStream = pStream;
        break;

    case AVMEDIA_TYPE_AUDIO:
        pCodecCtx->codec_id = codecID;
        pCodecCtx->sample_fmt = AV_SAMPLE_FMT_S16;
        pCodecCtx->bit_rate = 64000;
        pCodecCtx->sample_rate = 8000;
        pCodecCtx->channels = 1;
        m_pAudioStream = pStream;
        break;

    default:
        break;
    }

    /* Some formats want stream headers to be separate. */
    if (m_pOutputFmt->flags & AVFMT_GLOBALHEADER)
        m_pFormatCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;

    return pStream;
}

WriteAudio(..)WriteVideo(..)内部,我使用AVPakcet创建av_init_packet(...)并将pEncodedDataiLength设为packet.datapacket.size。我打印了packet.ptspacket.dts及其等同于AV_NOPTS_VALUE

现在,如何正确计算音频和视频数据的PTS,DTS和数据包持续时间(packet.dtspacket.ptspacket.duration),以便我可以同步音频和放大器;视频并正确播放?我在互联网上看到很多例子,但没有一个对我有意义。我是ffmpeg的新人,在某些情况下我的观念可能不正确。我想以适当的方式做到这一点。

提前致谢!

编辑:在我的视频流中,没有B帧。所以,我认为PTS和DTS在这里可以保持一致。

1 个答案:

答案 0 :(得分:2)

PTS / DTS是时间戳,它们应设置为输入数据的时间戳。我不知道你的日期来自哪里,但任何输入都有某种形式的时间戳与之相关。通常,输入媒体文件的时间戳或系统时钟派生的度量标准,如果您从声卡+网络摄像头录制,等等。您应该将这些数字转换为预期的格式,然后将它们分配给AVPacket.pts/dts