有没有办法将深度数据实时添加到捕获中。我想在ARKit应用程序中添加一个外部飞行时间传感器源,为后置摄像头捕获提供深度信息,以便在低特征曲面上获得更好的精确度。
我看到" capturedDepthData?",可以使用外部数据源来增强捕获吗?
答案 0 :(得分:0)
ARKit知道如何处理Apple为其处理的源中的输入:来自iOS设备的内置摄像头和传感器的彩色视频和运动数据。
ARKit不知道如何处理来自其他任意来源的输入,因此它没有为您提供这种输入的方法。
您提到的capturedDepthData
属性的文档说明它是输出,而不是输入。如果您使用的ARKit配置利用了设备的内置深度传感器(即使用iPhone X上的TrueDepth摄像头进行面部跟踪),则ARKit会在此处提供该传感器的输出。