ARKit和视觉框架:检测真实单词中对象的位置

时间:2018-09-22 08:27:01

标签: ios arkit coreml

目前,我正在开发珠宝应用程序,并使用下面的代码和一些研究成功地检测了手。

https://www.toptal.com/swift/ios-arkit-tutorial-drawing-in-air-with-fingers

我使用了Detecting Planes in ARKit,而Detecting the User’s Fingertip也使用了ARWorldTrackingConfiguration

现在我卡住了,因为我没有获得放在手上的物体(珠宝)的完美位置,如果我上下或左右移动手,则物体无法用手完美移动,我只成功了40%。

还有其他方法可以使我的问题成功吗?还有其他缺少的框架或其他东西吗?

先谢谢了。

我搜索很多类似...

Vision Framework with ARkit and CoreML https://developer.apple.com/documentation/arkit/using_vision_in_real_time_with_arkit

,还有更多。.

0 个答案:

没有答案