我正在开发一款适用于iPad的iOS应用,需要在屏幕的某些部分播放视频。我有几个视频文件需要按照编译时未给出的顺序互相播放。它看起来好像只是一个视频播放。从一个视频转到另一个视频是很好的,这是两个视频的最后一帧或第一帧显示的延迟,但是没有闪烁或没有内容的白色屏幕。视频不包含音频。考虑内存使用情况非常重要。视频分辨率非常高,可以同时播放几个不同的视频序列。
为了获得这个,我已经尝试了一些解决方案。它们列在下面:
在这个解决方案中,我有一个AVPlayer,它只能在AVPlayerItem上使用AVComplayer制作,AVComposition包含彼此相邻的所有视频。当我去特定的视频时,我会在下一个视频开始的构图中寻找时间。这个解决方案的问题是,在寻找时,播放器会快速显示它正在寻找的一些帧,这是不可接受的。似乎没有办法直接跳到作曲中的特定时间。我尝试通过制作刚完成的视频中最后一帧的图像来解决这个问题,然后在搜索时显示在AVPLayer前面,最后在搜索完成后删除它。我使用AVAssetImageGenerator制作图像,但由于某种原因,图像的质量与视频不同,因此在视频上显示和隐藏图像时会有显着的变化。 另一个问题是AVPlayer使用大量内存,因为单个AVPlayerItem包含所有视频。
此解决方案为每个视频使用AVPlayerItem,并在切换到新视频时替换AVPlayer的项目。这个问题是,当切换AVPlayer的项目时,它会在加载新项目时短时间显示白色屏幕。要解决此问题,可以使用加载时将图像放在最后一帧的前面,但仍然存在图像和视频质量不同且值得注意的问题。
我尝试的下一个解决方案是让两个AVPlayer相互叠加,轮流播放AVPlayerItems。因此,当玩家完成播放时,它将保留在视频的最后一帧。另一个AVPlayer将被带到前面(其项目设置为nil,因此它是透明的),并且下一个AVPlayerItem将被插入到该AVPlayer中。一旦加载它就会开始播放,两个视频之间顺畅交易的错觉将完好无损。此解决方案的问题是内存使用情况。在某些情况下,我需要同时在屏幕上播放两个视频,这将导致4个AVPlayers同时加载AVPlayerItem。这只是太多的记忆,因为视频的分辨率非常高。
是否有人对上面发布的整体问题和尝试过的解决方案有一些想法,建议,意见或建议。
答案 0 :(得分:44)
所以这个项目现在正在App Store中运行,现在是时候回到这个主题并分享我的发现并揭示我最终做的事情。
什么行不通
我在大AVComposition上使用其中包含所有视频的第一个选项是不够好的,因为在没有小的擦洗故障的情况下无法跳到合成中的特定时间。此外,我在组合中的两个视频之间准确暂停视频时出现问题,因为API无法为暂停提供帧保证。
第三个拥有两个AVPlayers并让他们轮流在实践中运作良好。特别是在iPad 4或iPhone 5上。具有较低RAM量的设备是一个问题,因为内存中的多个视频同时消耗了太多内存。特别是因为我不得不处理高分辨率的视频。
我最终做了什么
嗯,左边是选项编号2.在需要时为视频创建AVPlayerItem并将其提供给AVPlayer。这个解决方案的好处是内存消耗。通过延迟创建AVPlayerItem并在不再需要它们的时候丢弃它们可以将内存消耗降至最低,这对于支持RAM有限的旧设备非常重要。这个解决方案的问题在于,当从一个视频转到另一个视频时,在下一个视频被加载到内存中的同时,会有一个空白屏幕。我解决这个问题的想法是在AVPlayer后面放一个图像,该图像会在玩家缓冲时显示出来。我知道我需要的图像与视频完美匹配,因此我捕获的图像是视频的最后一帧和第一帧的精确副本。这个解决方案在实践中运作良好。
此解决方案的问题
我遇到的问题是,如果视频/图像不是原始大小或模块4缩放,那么UIImageView内部图像的位置与AVPlayer内部视频的位置不同。换句话说,我遇到了如何用UIImageView和AVPlayer处理半像素的问题。它似乎没有相同的方式。
我是如何修理的
我尝试了很多东西,因为我的应用程序是以不同大小的交互方式使用视频。我尝试更改了AVPlayerLayer和CALayer的magnificationfilter和minificationFilter以使用相同的算法,但没有真正改变任何东西。最后,我最终创建了一个iPad应用程序,可以自动截取我需要的所有尺寸的视频截图,然后在视频缩放到一定大小时使用正确的图像。这给出了我在显示特定视频时所有尺寸都像素完美的图像。不是一个完美的工具链,但结果是完美的。
最终反思
这个位置问题对我来说非常明显(因此非常重要)的主要原因是因为我的应用正在播放的视频内容是绘制动画,其中很多内容处于固定位置而且只有一个部分图片正在移动。如果所有内容仅移动一个像素,则会产生非常明显且难看的故障。在今年的WWDC上,我与一位专注于AVFoundation的Apple工程师讨论了这个问题。当我向他介绍问题时,他的建议基本上是选择3,但我向他解释说这是不可能的,因为内存消耗和我已经尝试过解决方案了。有鉴于此,他说我选择了正确的解决方案,并要求我在缩放视频时为UIImage / AVPlayer定位提交错误报告。
答案 1 :(得分:15)
您可能已经看过这个,但是您已经查看了AVQueuePlayer
Documentation
它专为在队列中播放AVPlayerItems
而设计,是AVPlayer的直接子类,所以只需以相同的方式使用它。你设置如下:
AVPlayerItem *firstItem = [AVPlayerItem playerItemWithURL: firstItemURL];
AVPlayerItem *secondItem = [AVPlayerItem playerItemWithURL: secondItemURL];
AVQueuePlayer *player = [AVQueuePlayer queuePlayerWithItems:[NSArray arrayWithObjects:firstItem, secondItem, nil]];
[player play];
如果要在运行时向队列中添加新项,请使用以下方法:
[player insertItem:thirdPlayerItem afterItem:firstPlayerItem];
我没有测试过,看看这是否会减少您提到的闪烁问题,但似乎这是可行的方法。
答案 2 :(得分:1)
更新 - https://youtu.be/7QlaO7WxjGg
以下以集合视图为例,您的答案将一次播放8个(请注意,不需要任何类型的内存管理;您可以使用ARC):
- (UICollectionViewCell *)collectionView:(UICollectionView *)collectionView cellForItemAtIndexPath:(NSIndexPath *)indexPath {
UICollectionViewCell *cell = (UICollectionViewCell *)[collectionView dequeueReusableCellWithReuseIdentifier:kCellIdentifier forIndexPath:indexPath];
// Enumerate array of visible cells' indexPaths to find a match
if ([self.collectionView.indexPathsForVisibleItems
indexOfObjectPassingTest:^BOOL(NSIndexPath * _Nonnull obj, NSUInteger idx, BOOL * _Nonnull stop) {
return (obj.item == indexPath.item);
}]) dispatch_async(dispatch_get_main_queue(), ^{
[self drawLayerForPlayerForCell:cell atIndexPath:indexPath];
});
return cell;
}
- (void)drawPosterFrameForCell:(UICollectionViewCell *)cell atIndexPath:(NSIndexPath *)indexPath {
[self.imageManager requestImageForAsset:AppDelegate.sharedAppDelegate.assetsFetchResults[indexPath.item]
targetSize:AssetGridThumbnailSize
contentMode:PHImageContentModeAspectFill
options:nil
resultHandler:^(UIImage *result, NSDictionary *info) {
cell.contentView.layer.contents = (__bridge id)result.CGImage;
}];
}
- (void)drawLayerForPlayerForCell:(UICollectionViewCell *)cell atIndexPath:(NSIndexPath *)indexPath {
cell.contentView.layer.sublayers = nil;
[self.imageManager requestPlayerItemForVideo:(PHAsset *)self.assetsFetchResults[indexPath.item] options:nil resultHandler:^(AVPlayerItem * _Nullable playerItem, NSDictionary * _Nullable info) {
dispatch_sync(dispatch_get_main_queue(), ^{
if([[info objectForKey:PHImageResultIsInCloudKey] boolValue]) {
[self drawPosterFrameForCell:cell atIndexPath:indexPath];
} else {
AVPlayerLayer *playerLayer = [AVPlayerLayer playerLayerWithPlayer:[AVPlayer playerWithPlayerItem:playerItem]];
[playerLayer setVideoGravity:AVLayerVideoGravityResizeAspectFill];
[playerLayer setBorderColor:[UIColor whiteColor].CGColor];
[playerLayer setBorderWidth:1.0f];
[playerLayer setFrame:cell.contentView.layer.bounds];
[cell.contentView.layer addSublayer:playerLayer];
[playerLayer.player play];
}
});
}];
}
drawPosterFrameForCell方法将图像放置在无法播放视频的位置,因为它存储在iCloud上,而不是设备上。
无论如何,这是出发点;一旦你理解了它是如何工作的,你就可以做你想要的所有事情,而不会出现你所描述的任何记忆故障。