我很难理解如何使用AVAssetWriter将动态JPEG流转换为30fps到视频文件。我没有得到的部分是 [adapter appendPixelBuffer:buffer withPresentationTimeresentTime] method。
如果我想输出30fps mpeg4视频,如何计算withPresentationTime值?
视频源是一台实时流动30fps动态JPEG的相机。
欣赏任何想法。
谢谢
答案 0 :(得分:7)
您需要使用CMTimeMake生成CMTime结构。每帧的时间需要增加1/30秒。
这是一幅草图:
CMTime time = CMTimeMake(0, 30); // (time, time_scale)
for(each image) {
[adaptor appendPixelBuffer:buffer withPresentationTime:time]
time.value += 1;
}
如图所示设置时间,最小时间分辨率为1/30秒。 time / time_scale = 1秒。我不确定是否对H.264有特定要求。捕获时AVFoundation使用的时间范围为1000000000(1,000,000,000或10亿)(根据我的经验)。
更新
待审核。来自CMTime结构:
CMTimeValue value; /*! @field value The value of the CMTime. value/timescale = seconds. */
CMTimeScale timescale; /*! @field timescale The timescale of the CMTime. value/timescale = seconds. */
整个视频的时基将保持不变。假设您的当前值为10,时间刻度为30.当前时间(秒)为10/30 = 0.33333秒。电影第40帧的时间值为40/30 = 1.33333。所以第40帧应该在电影的1.3333秒处呈现。
我不确定这个时基是否适合H.264视频。我不熟悉这个规范。我知道在捕获视频时,视频帧的显示时基是10亿。从技术上讲,这应该没关系。时间是有理数 - 1000000000/1000000000 = 1秒,30/30 = 1秒。