我正在尝试使用 AVFoundation 创建一个可以进行实时视频和音频录制的应用。 同样使用 AVAssetWriter 我正在将缓冲区写入本地文件。
对于视频 CMSampleBuffer
,我使用 AVCaptureVideoDataOutputSampleBufferDelegate
中的 AVCaptureSession
输出,这很简单。
对于音频 CMSampleBuffer
,我正在从 AudioUnit 记录回调创建缓冲区。
我计算音频缓冲区的呈现时间的方式如下:
var timebaseInfo = mach_timebase_info_data_t(numer: 0, denom: 0)
let timebaseStatus = mach_timebase_info(&timebaseInfo)
if timebaseStatus != KERN_SUCCESS {
debugPrint("not working")
return
}
let hostTime = time * UInt64(timebaseInfo.numer / timebaseInfo.denom)
let presentationTIme = CMTime(value: CMTimeValue(hostTime), timescale: 1000000000)
let duration = CMTime(value: CMTimeValue(1), timescale: CMTimeScale(self.sampleRate))
var timing = CMSampleTimingInfo(
duration: duration,
presentationTimeStamp: presentationTIme,
decodeTimeStamp: CMTime.invalid
)
self.sampleRate
是在录制开始时改变的变量,但大多数时候是 48000
。
获取视频和音频的 CMSampleBuffers
时,演示时间有很大的不同。
音频 - CMTime(value: 981750843366125, timescale: 1000000000, flags: __C.CMTimeFlags(rawValue: 1), epoch: 0)
视频 - CMTime(value: 997714237615541, timescale: 1000000000, flags: __C.CMTimeFlags(rawValue: 1), epoch: 0)
这会在尝试将缓冲区写入文件时产生很大的差距。
我的问题是
答案 0 :(得分:0)
好吧,这是我的错。 正如评论中的 Rhythmic Fistman 所建议的那样,我的时间计算被截断了:
let hostTime = time * UInt64(timebaseInfo.numer / timebaseInfo.denom)
改成这个计算就解决了
let hostTime = (time * UInt64(timebaseInfo.numer)) / UInt64(timebaseInfo.denom)