有没有一种方法可以在ArCore人脸跟踪中将ViewRenderables与AugmentedFaceNodes一起使用?

时间:2019-05-09 19:21:37

标签: android augmented-reality arcore sceneform

我正在开发可识别面孔并显示有关此人的医疗信息的应用程序。我的目标是在人脸附近的ViewRenderable中以AR显示信息。是否有办法像使用基于平面的AR一样使用面部作为锚点?

Augmented Faces示例仅显示正在使用ModelRenderables,这对我的情况没有帮助。

1 个答案:

答案 0 :(得分:0)

完成任务的最好方法可能是使用AugmentedFace类的getCenterPose()函数来跟踪脸部中心并将内容相对于此姿势放置。 另一种方法是在ARCore片段上添加一个叠加层,其中包含一个部分,当您的应用识别出面部时,您可以在其中放置上下文医疗信息。

我没有使用增广人脸功能,但是我怀疑如果不使用另一个专注于机器学习/深度学习的框架,它就无法区分不同的人脸。只需对此做一些检查即可。

需要将锚放置在特定的真实空间位置上,该位置是由相机获取的图像的不变特征生成的。 不变的功能意味着锚点与放置时在特定时间看到的东西紧密相关。

因此,使用随时间推移移动很多的对象不是一个好主意,因为它可以更改图像的特征数量,并且可能会对电话跟踪过程造成问题。 我认为这是仅在放置锚点之后才将对象放置在真实空间中这一事实的原因之一。 此外,文档还说,不可能将锚点放置在增强的面部上。enter link description here

希望这会给您一些提示。