音频缓冲区和视频缓冲区的呈现时间不相等

时间:2021-06-23 12:49:29

标签: swift audio avfoundation audiounit cmsamplebuffer

我正在尝试使用 AVFoundation 创建一个可以进行实时视频和音频录制的应用。 同样使用 AVAssetWriter 我正在将缓冲区写入本地文件。

对于视频 CMSampleBuffer,我使用 AVCaptureVideoDataOutputSampleBufferDelegate 中的 AVCaptureSession 输出,这很简单。

对于音频 CMSampleBuffer,我正在从 AudioUnit 记录回调创建缓冲区。 我计算音频缓冲区的呈现时间的方式如下:

        var timebaseInfo = mach_timebase_info_data_t(numer: 0, denom: 0)
        let timebaseStatus = mach_timebase_info(&timebaseInfo)
        if timebaseStatus != KERN_SUCCESS {
            debugPrint("not working")
            return
        }
        let hostTime = time * UInt64(timebaseInfo.numer / timebaseInfo.denom)
        let presentationTIme = CMTime(value: CMTimeValue(hostTime), timescale: 1000000000)
        let duration = CMTime(value: CMTimeValue(1), timescale: CMTimeScale(self.sampleRate))

        var timing = CMSampleTimingInfo(
            duration: duration,
            presentationTimeStamp: presentationTIme,
            decodeTimeStamp: CMTime.invalid
        )

self.sampleRate 是在录制开始时改变的变量,但大多数时候是 48000

获取视频和音频的 CMSampleBuffers 时,演示时间有很大的不同。

音频 - CMTime(value: 981750843366125, timescale: 1000000000, flags: __C.CMTimeFlags(rawValue: 1), epoch: 0)

视频 - CMTime(value: 997714237615541, timescale: 1000000000, flags: __C.CMTimeFlags(rawValue: 1), epoch: 0)

这会在尝试将缓冲区写入文件时产生很大的差距。

我的问题是

  1. 我是否正确计算了音频缓冲区的呈现时间?如果是这样,我错过了什么?
  2. 如何确保音频和视频在同一时间区域内(我知道它们之间应该有很小的毫秒差异)

1 个答案:

答案 0 :(得分:0)

好吧,这是我的错。 正如评论中的 Rhythmic Fistman 所建议的那样,我的时间计算被截断了:

let hostTime = time * UInt64(timebaseInfo.numer / timebaseInfo.denom)

改成这个计算就解决了

let hostTime = (time * UInt64(timebaseInfo.numer)) / UInt64(timebaseInfo.denom)

相关问题