目前,我正在开发珠宝应用程序,并使用下面的代码和一些研究成功地检测了手。
https://www.toptal.com/swift/ios-arkit-tutorial-drawing-in-air-with-fingers
我使用了Detecting Planes in ARKit
,而Detecting the User’s Fingertip
也使用了ARWorldTrackingConfiguration
。
现在我卡住了,因为我没有获得放在手上的物体(珠宝)的完美位置,如果我上下或左右移动手,则物体无法用手完美移动,我只成功了40%。
还有其他方法可以使我的问题成功吗?还有其他缺少的框架或其他东西吗?
先谢谢了。
我搜索很多类似...
Vision Framework with ARkit and CoreML https://developer.apple.com/documentation/arkit/using_vision_in_real_time_with_arkit
,还有更多。.