3D模型无法在iOS的ARCore Augmented Faces中渲染

时间:2019-11-11 07:04:09

标签: ios swift augmented-reality blender arcore

我正在使用ARCORE AUGMENTED FACES iOS SDK。内置的fox_face.scn对我来说很好。

现在,我们已经在Blender中创建了一些3d模型并以.dae或.obj格式导出它们。从xcode中,我在scn中转换了这些模型,但是当我尝试渲染scn模型时,它不在脸上渲染。

相同的scn模型可以在ARKIT上正常工作,但不能在ARCORE上工作

2 个答案:

答案 0 :(得分:0)

如果您的模型有任何动画,请检查您的3D文件是否符合此处的要求:https://developers.google.com/ar/develop/java/sceneform/animation/obtaining-assets

答案 1 :(得分:0)

iOS上的渲染是在ARKit场景中完成的,而不是ARCore。 ARCore Face Augmentation正在生成3D人脸资源,这些资源会交付给SceneKit以便在每个帧回调中进行渲染。

我不确定为什么您说scn模型可以在ARKit上正常工作,而不能在AR Core上正常工作?

我已经成功地从Blender导出到.dae,然后以xcode转换为SceneKit文件。

话虽如此,但我未能将默认的狐狸脸和骨头(以及我的几何体)从Blender干净地直接导出到Xcode中,以创建演示所具有的默认设置。

相反,我不得不将3D几何内容从搅拌机的导入/转换场景复制/粘贴到项目随附的原始fox_face场景中,以确保所有轴都是正确的。

为了相对于原始狐狸脸正确定位资产,我不得不创建一些代码来在世界范围内移动模型。

我希望有帮助。

但是,如果您能找到一种从搅拌器(包括默认的脸部或狐狸耳朵等)直接干净地导出到整个场景(包括新几何体)的方法,我将非常感兴趣。