我目前正致力于增强现实项目。我想在人体上放置一些虚拟物体。因此,我创建了一个iOS facetracking应用程序(使用openCV; C ++),我想将其用作Unity的插件。有没有办法从现有的iOS应用程序构建框架?或者我是否必须创建一个新的Xcode项目并创建一个可可触摸框架并将应用程序中的代码粘贴到此框架中?我在这里有点困惑。框架是否可以访问摄像头?
我的想法是跟踪一张脸的位置并将该位置发送到一致,以便我可以在其上放置一些物体。但我不知道该怎么做。有人可以帮忙吗?
好的问候。答案 0 :(得分:0)
据我所知,您需要制作Unity项目,并使用OpenCV之类的资源,但它不允许您跟踪人体(没有标记)。 关于从iOS应用程序开始建立一个fremwork,我第一次听说!