播放从AVAssetExportSession
导出的视频时,您会在看到视频之前听到很长时间的音频。音频立即播放,但视频仅在录制循环多次后(即开始和结束)出现。换句话说,在看到任何图像之前,您会多次听到视频中的音频。
我们在iOS 8上使用AutoLayout。
使用以下测试,我们将问题隔离到exportAsynchronouslyWithCompletionHandler
。在两个代码块中,我们播放现有视频 - 而不是与导出相关的视频 - 因此导出过程已作为变量消除。
代码1 同时播放视频&音频开头,而代码2 仅在开始时播放音频,并在延迟10-60秒后显示视频(视频循环几次后)。
两个代码块之间的唯一区别是一个使用exportAsynchronouslyWithCompletionHandler
来播放视频,而另一个不使用。{/ p>
帮助?是否有可能首先导出音频并准备好在视频播放之前播放?与在不同线程上发生的导出有关吗?
func initPlayer(videoURL: NSURL) {
// Create player
player = AVPlayer(URL: videoURL)
let playerItem = player.currentItem
let asset = playerItem.asset
playerLayer = AVPlayerLayer(player: player)
playerLayer.frame = videoView.frame
view.layer.addSublayer(playerLayer)
player.seekToTime(kCMTimeZero)
player.actionAtItemEnd = .None
player.play()
// Get notified when video done for looping purposes
NSNotificationCenter.defaultCenter().addObserver(self, selector: "playerItemDidReachEnd:", name: AVPlayerItemDidPlayToEndTimeNotification, object: playerItem)
// Log status
println("Initialized video player: \(CMTimeGetSeconds(asset.duration)) seconds & \(asset.tracks.count) tracks for \(videoURL)")
}
func playExistingVideo() {
let filename = "/ChopsticksVideo.mp4"
let allPaths = NSSearchPathForDirectoriesInDomains(.DocumentDirectory, .UserDomainMask, true)
let docsPath = allPaths[0] as! NSString
let exportPath = docsPath.stringByAppendingFormat(filename)
let exportURL = NSURL.fileURLWithPath(exportPath as String)!
initPlayer(exportURL)
}
代码1:
// Create exporter
let exporter = AVAssetExportSession(asset: mainComposition, presetName: AVAssetExportPresetHighestQuality)
exporter.videoComposition = videoComposition
exporter.outputFileType = AVFileTypeMPEG4
exporter.outputURL = exportURL
exporter.shouldOptimizeForNetworkUse = true
playExistingVideo()
代码2:
// Create exporter
let exporter = AVAssetExportSession(asset: mainComposition, presetName: AVAssetExportPresetHighestQuality)
exporter.videoComposition = videoComposition
exporter.outputFileType = AVFileTypeMPEG4
exporter.outputURL = exportURL
exporter.shouldOptimizeForNetworkUse = true
// -- Export video
exporter.exportAsynchronouslyWithCompletionHandler({
self.playExistingVideo()
})
答案 0 :(得分:4)
我会建议问题出现在这里:
// Create player
player = AVPlayer(URL: videoURL)
let playerItem = player.currentItem
let asset = playerItem.asset
playerLayer = AVPlayerLayer(player: player)
playerLayer.frame = videoView.frame
view.layer.addSublayer(playerLayer)
player.seekToTime(kCMTimeZero)
player.actionAtItemEnd = .None
player.play()
您会看到,当您从视频网址创建AVPlayer时,它会进入世界尚未准备好播放。它通常可以很快开始播放音频,但视频需要更长的时间来准备。这可以解释看到任何事情的延迟。
好吧,您不必等待视频准备就绪,而是立即继续说play()
。这是我的建议。我建议你做的是我explain in my book(这是实际代码的链接):创建播放器和图层,然后设置KVO,以便在播放器准备好显示时通知你,并且< em>然后添加图层并开始播放。
另外,我还有一个建议。在我看来,您正在运行该代码,设置界面(使用图层)并在后台线程上说play()
,。这肯定会造成各种延误。您似乎假设在主线程上调用exportAsynchronouslyWithCompletionHandler:
的完成处理程序 - 您将直接调用下一个方法,然后继续设置您的接口。这是一个非常冒险的假设。根据我的经验,你永远不应该假设任何 AVFoundation完成处理程序在主线程上。您应该在完成处理程序中使用dispatch_async
单步执行主线程,并仅从那里继续。如果你查看我链接到的代码,你会发现我很谨慎。
答案 1 :(得分:2)
对于那些后来偶然发现这个问题的人来说,答案就在接受答案的评论中。密钥dispatch_async部分如下:
[exporter exportAsynchronouslyWithCompletionHandler:^(void){
dispatch_async(dispatch_get_main_queue(), ^{
switch (exporter.status) {
case AVAssetExportSessionStatusCompleted:
NSLog(@"Video Merge Successful");
break;
case AVAssetExportSessionStatusFailed:
NSLog(@"Failed:%@", exporter.error.description);
break;
case AVAssetExportSessionStatusCancelled:
NSLog(@"Canceled:%@", exporter.error);
break;
case AVAssetExportSessionStatusExporting:
NSLog(@"Exporting!");
break;
case AVAssetExportSessionStatusWaiting:
NSLog(@"Waiting");
break;
default:
break;
}
});
}];
答案 2 :(得分:0)
您可以在导出过程中播放视频合成。
playerItem = AVPlayerItem(asset: videoComposition)
player = AVPlayer(playerItem: playerItem)
AVPlayerItem:
convenience init(asset: AVAsset)