完善3D模型相对于增强图像姿势的位置

时间:2019-07-05 22:05:31

标签: android c++ augmented-reality arcore

在我大声疾呼之前,我的有效问题是:

我可以向ARCore提供一些额外的信息/试探法,以完善其对检测到的增强图像的姿态的想法吗?还是可以使用其他可跟踪对象的姿态来完善检测到的增强图像的姿态?

有关更多信息,这是我的工作流程的一些背景信息:

我的AR应用程序围绕着将各种3D CAD模型叠加在其真实世界中的机器之上。用户交互如下:

  1. 用户将QR码(大小为0.2米x 0.2米)粘贴到关联机器上的预定位置(该位置特定于机器类型)。
  2. 然后,用户将加载应用程序,将相机指向QR码,然后该应用程序会将相机图像传递到QR码阅读库,并使用有效负载(特定机器的ID)来检索关联的CAD模型和元数据。
  3. 一旦检测到QR码,我就可以使用QR码读取库来构建QR码的原始图像,并将该图像传递给ARCore,以便它可以在相机的3D空间中对其进行检测。
  4. 一旦在3D空间中检测到QR码,我将附加一个锚点,并利用该知识将QR码放置在给定模型上的位置(也可以使用有效载荷信息从我的数据库中检索)来确定我的CAD模型。
  5. 可以使用CAD模型叠加信息以显示各种操作/交互。

现在我所有这些工作都很好,但是我遇到了一些问题,其中模型永远无法完全定位到实际等效模型,并且在事后需要进行一些手动位置调整才能使事情正确。我对如何解决此问题有一些想法,但我不知道这些想法中的任何一个是多么可行:

  1. ArTrackable_acquireNewAnchor允许您为具有不同姿势的每个可跟踪对象指定多个锚点。我认为这将优化跟踪对象,但对于如何使用此API尚不清楚。我目前正在传递从ArAugmentedImage_getCenterPose生成的姿势,所以我不知道我还要传递什么其他姿势。
  2. 如果我在检测后将QR Code定位符提升为云定位符,这将有助于将来检测/完善qr姿势检测吗?
  3. 如果我尝试将ARCore检测到的其他特征(例如飞机)与真实环境(例如地板/墙壁)中的已知拓扑相匹配,则可以更好地近似QR码图像的位置或为ARCore提供一些启发,以便它可以?
  4. 如果我使用一组彼此稍微偏移的图像(一个QR码和两个其他静态图像),而不是使用单个QR码图像。如果我们知道这些图像在现实世界中相距多远,则可以使用此信息来校正ARCore估计它们在哪里的错误。

对不起,我对巨大的单词转储感到遗憾,但我认为信息越多越好。除了我的问题框架之外的任何其他想法也将受到赞赏。

0 个答案:

没有答案