TrueDepth相机前景分割,改善蒙版效果

时间:2018-10-23 05:53:45

标签: ios avfoundation avkit truedepth-camera

我正在检查一个Apple项目,该项目演示如何使用TrueDepth前置摄像头将人与背景分离。您可以在这里看到它:

https://developer.apple.com/documentation/avfoundation/cameras_and_media_capture/enhancing_live_video_by_leveraging_truedepth_camera_data

效果很好,但是有时如果我旋转我的脸,深度图会丢失一些数据点并修剪我的脸和耳朵的一部分。您可以在此处看到该示例:https://streamable.com/cstex

有人对如何改善这一点有任何想法吗?如果您使用AVCapturePhotoOutputAVPortraitEffectsMatte对象是完美的,但是由于处理时间太长,无法更新帧,因此它似乎不能用于实时视频供稿。

我注意到Apple的Clips应用程序具有完美的效果,不会夹住我的任何脸部或耳朵,并且提供了不错的帧率:https://streamable.com/5n96h 由于他们的应用程序不会丢失细节,因此它一定不能仅依赖深度数据。或者,他们正在通过模型来运行深度数据以对其进行改善(可能类似于他们用于生成AVPortraitEffectsMatte的专有模型)

关于如何获得相似结果或如何获得相似结果的任何想法?

0 个答案:

没有答案