ffmpeg编码的音频的持续时间和比特率不正确

时间:2019-05-30 14:28:21

标签: android audio encoding ffmpeg aac

我正在使用ffmpeg库在Android上对原始数据进行编码。本机代码从外部设备读取音频数据,并将其编码为mp4容器中的AAC格式。我发现音频数据已成功编码(我可以使用默认的Windows音频播放器Groove Music播放它)。但是ffprobe报告的元数据的错误持续时间为0.05秒-实际上是几秒钟。即使我指定了192kbps,也错误地将比特率报告为65kbps。

我尝试了各种持续时间的录音,但是结果总是相似的-(非常小的)持续时间和比特率。我尝试了其他各种音频播放器,例如Quicktime,但是它们仅播放音频的前0.05秒左右。

我从以下内容中删除了错误检查。实际代码会检查每个调用,并且不会报告任何问题。

初始化:

void AudioWriter::initialise( const char *filePath )
{
    AVCodecID avCodecID = AVCodecID::AV_CODEC_ID_AAC;
    int bitRate = 192000;
    char *containerFormat = "mp4";
    int sampleRate = 48000;
    int nChannels = 2;

    mAvCodec = avcodec_find_encoder(avCodecID);
    mAvCodecContext = avcodec_alloc_context3(mAvCodec);
    mAvCodecContext->codec_id = avCodecID;
    mAvCodecContext->codec_type = AVMEDIA_TYPE_AUDIO;
    mAvCodecContext->sample_fmt = AV_SAMPLE_FMT_FLTP;
    mAvCodecContext->bit_rate = bitRate;
    mAvCodecContext->sample_rate = sampleRate;
    mAvCodecContext->channels = nChannels; 
    mAvCodecContext->channel_layout = AV_CH_LAYOUT_STEREO;

    avcodec_open2( mAvCodecContext, mAvCodec, nullptr );

    mAvFormatContext = avformat_alloc_context();

    avformat_alloc_output_context2(&mAvFormatContext, nullptr, containerFormat, nullptr);
    mAvFormatContext->audio_codec = mAvCodec;
    mAvFormatContext->audio_codec_id = avCodecID;
    mAvOutputStream = avformat_new_stream(mAvFormatContext, mAvCodec);
    avcodec_parameters_from_context(mAvOutputStream->codecpar, mAvCodecContext);
    if (!(mAvFormatContext->oformat->flags & AVFMT_NOFILE))
    {
        avio_open(&mAvFormatContext->pb, filePath, AVIO_FLAG_WRITE);
    }

    if ( mAvFormatContext->oformat->flags & AVFMT_GLOBALHEADER )
    {
        mAvCodecContext->flags |= AV_CODEC_FLAG_GLOBAL_HEADER;
    }

    avformat_write_header(mAvFormatContext, NULL);

    mAvAudioFrame = av_frame_alloc();
    mAvAudioFrame->nb_samples = mAvCodecContext->frame_size;
    mAvAudioFrame->format = mAvCodecContext->sample_fmt;
    mAvAudioFrame->channel_layout = mAvCodecContext->channel_layout;

    av_samples_get_buffer_size(NULL, mAvCodecContext->channels, mAvCodecContext->frame_size,
                                                 mAvCodecContext->sample_fmt, 0);
    av_frame_get_buffer(mAvAudioFrame, 0);
    av_frame_make_writable(mAvAudioFrame);
    mAvPacket = av_packet_alloc();
  }

编码:

// SoundRecording is a custom class with the raw samples to be encoded
bool AudioWriter::encodeToContainer( SoundRecording *soundRecording )
{
    int ret;
    int frameCount = mAvCodecContext->frame_size;
    int nChannels = mAvCodecContext->channels;
    float *buf = new float[frameCount*nChannels];

    while ( soundRecording->hasReadableData() )
    {
        //Populate the frame
        int samplesRead = soundRecording->read( buf, frameCount*nChannels );
        // Planar data
        int nFrames = samplesRead/nChannels;
        for ( int i = 0; i < nFrames; ++i )
        {
            for (int c = 0; c < nChannels; ++c )
            {
                samples[c][i] = buf[nChannels*i +c];
            }
        }
        // Fill a gap at the end with silence
        if ( samplesRead < frameCount*nChannels )
        {
            for ( int i = samplesRead; i < frameCount*nChannels; ++i )
            {
                for (int c = 0; c < nChannels; ++c )
                {
                    samples[c][i] = 0.0;
                }
            }
        }

    encodeFrame( mAvAudioFrame ) )
    }

    finish();
 }

bool AudioWriter::encodeFrame( AVFrame *frame )
{
    //send the frame for encoding
    int ret;

    if ( frame != nullptr )
    {
        frame->pts = mAudFrameCounter++;
    }
    avcodec_send_frame(mAvCodecContext, frame );

    while (ret >= 0)
    {
        ret = avcodec_receive_packet(mAvCodecContext, mAvPacket);
        if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF )
        {
            break;
        }
        else
            if (ret < 0) {
             return false;
        }
        av_packet_rescale_ts(mAvPacket, mAvCodecContext->time_base, mAvOutputStream->time_base);
        mAvPacket->stream_index = mAvOutputStream->index;

        av_interleaved_write_frame(mAvFormatContext, mAvPacket);
         av_packet_unref(mAvPacket);
    }

    return true;
}

void AudioWriter::finish()
{
    // Flush by sending a null frame
    encodeFrame( nullptr );

    av_write_trailer(mAvFormatContext);
}

由于生成的文件包含录制的音乐,所以操纵音频数据的代码似乎是正确的(除非我以某种方式覆盖了其他内存)。

不正确的持续时间和比特率表明与时间有关的信息未得到正确管理。我使用一个简单的递增整数设置帧的pts。我不清楚设置时间戳和流索引的代码将实现什么,以及是否有必要:我从假定有效的代码中复制了它,但是我看到了其他没有它的代码。

任何人都可以看到我在做什么吗?

1 个答案:

答案 0 :(得分:0)

时间戳记必须正确。将time_base设置为1 / sample_rate,并将时间戳每帧增加1024。注意:1024是特定于AAC的。如果更改编解码器,则需要更改帧大小。