AVMutableComposition丢失帧记录器与iPad的差分相机

时间:2015-05-20 19:33:58

标签: ios camera avfoundation avmutablecomposition

我使用众所周知的PBJVision录制视频,然后必须将它们组合在一起。 我使用AVMutableComposition来组合视频 insertTimeRange(_:ofAsset:atTime:错误:)。如果使用相同的相机拍摄视频,则效果很好。但是,例如,如果使用后置摄像头拍摄,则使用前置摄像头拍摄另一个,后一个视频的视频丢失。看起来只添加了音频。这是我的代码:

var error: NSError? = nil

    let composition = AVMutableComposition()

    var currentTime = kCMTimeZero

    for (index, videoURL) in enumerate(videoURLS) {
        let asset = AVURLAsset.assetWithURL(videoURL) as! AVAsset

        let success = composition.insertTimeRange(CMTimeRange(start: kCMTimeZero, duration: asset.duration),
            ofAsset: asset,
            atTime: currentTime,
            error: &error)
        if !success {
            if error != nil {
                println("timerange isnert error - \(error?.localizedDescription)")
            }
        }

        // add time till we get to the last video
        if index < videoURLS.count - 1 {
            currentTime = CMTimeAdd(currentTime, asset.duration)
        }
    }

    let outputURL = fileSystemHelper.temporaryStorageURLForExportSession()
    let fileManager = NSFileManager.defaultManager()
    fileManager.removeItemAtURL(outputURL, error: &error)
    if error != nil {
        println("export session file removal error - \(error?.localizedDescription)")
    }

    let exportSession = AVAssetExportSession(asset: composition, presetName: AVAssetExportPresetHighestQuality)
    exportSession.outputFileType = AVFileTypeMPEG4
    exportSession.outputURL = outputURL

    let start = CMTimeMake(0, 1)
    let range = CMTimeRangeMake(start, composition.duration)
    //exportSession.timeRange = range

    exportSession.exportAsynchronouslyWithCompletionHandler { () -> Void in
        switch exportSession.status {
        case .Completed:
            self.fileSystemHelper.copyFileAtURL(outputURL, toURL: finalURL)

            self.appendURL = nil
            //  self.isRecording = false

            completion()
        case .Failed:
            println("fail error - \(exportSession.error.localizedDescription)")

            self.fileSystemHelper.removeFileAtURL(outputURL)
            self.appendURL = nil
            //self.isRecording = false

            println("failed to mix")
            //  delegate?.videoCaptureDidFinishRecordingVideoAtURL(URL, appended: appendURL == nil)

        default:
            println("something else happened, check code")
        }
    }

1 个答案:

答案 0 :(得分:0)

在我问这个问题之后,我在附近的一个晚上散步时找到了答案:)所以不同的相机具有不同的最大可能分辨率,因此产生具有不同尺寸的框架,使构图对象混淆。它使用第一个视频的大小,忽略不同大小的视频帧。 因此,测试并查看特定设备上两个摄像头支持的最佳可能分辨率AVCaptureSessionPreset。然后在视频捕获代码中使用该预设,不要直接跳转到使用AVCaptureSessionPresetHigh。

我希望这也有助于其他人:)