我正在检查一个Apple项目,该项目演示如何使用TrueDepth前置摄像头将人与背景分离。您可以在这里看到它:
效果很好,但是有时如果我旋转我的脸,深度图会丢失一些数据点并修剪我的脸和耳朵的一部分。您可以在此处看到该示例:https://streamable.com/cstex
有人对如何改善这一点有任何想法吗?如果您使用AVCapturePhotoOutput
,AVPortraitEffectsMatte对象是完美的,但是由于处理时间太长,无法更新帧,因此它似乎不能用于实时视频供稿。
我注意到Apple的Clips应用程序具有完美的效果,不会夹住我的任何脸部或耳朵,并且提供了不错的帧率:https://streamable.com/5n96h 由于他们的应用程序不会丢失细节,因此它一定不能仅依赖深度数据。或者,他们正在通过模型来运行深度数据以对其进行改善(可能类似于他们用于生成AVPortraitEffectsMatte的专有模型)
关于如何获得相似结果或如何获得相似结果的任何想法?