如何将opengl场景叠加到ios相机上?

时间:2015-11-17 18:39:03

标签: ios objective-c swift opengl-es augmented-reality

我是iOS开发的新手,并试图掌握Objective-C和Swift。

是否有一种已知的方法在相机Feed上渲染OpenGL场景(即多维数据集)?

我可以使用OpenGLES在屏幕上显示一个多维数据集,而不在一个项目中使用storyboard文件。在另一个项目中,我可以使用AVFoundation和故事板捕获摄像机源并将其显示回来。我也看过名为EAGLGLKit的课程,但由于我对iOS的了解不足,我无法看到如何使用这些课程。

这两种功能有没有办法共存?模拟一个非常基本的增强现实。

我们非常感谢人们完成类似任务所需的任何指导,资源或教程。

1 个答案:

答案 0 :(得分:0)

很容易让两者存在,最好的办法是从一个opengles游戏项目开始。然后选择Main.storyboard文件,它将加载您的界面构建器。单击Game View Controller下的视图,然后点击CMD + X(我们想要剪切它)。然后,转到对象库(右侧面板的右下角)并选择“查看”。将此视图拖动到Game View控制器中。然后单击视图,然后点击CMD + V(将其粘贴)。您现在有一个位于视图内的GLKView,您可以调整大小,但是您可以使用默认的GLKit代码进行设置。现在,您只需将摄像机代码与其他视图一起放在顶级视图中,并确保您现在拥有的GLKView位于列表的底部(以便它显示在所有其他视图的顶部)。 / p>