我想知道是否有人可以将我指向正确的方向,以便我可以如何使用OpenGL在HTC Vive设备的每只眼睛上渲染两个单独的图像。
基本上,我的最终目标是从ZED立体相机(它有两个镜头,每个都充当眼睛)流向HTC Vive设备。但是,我认为我合乎逻辑的第一步是能够渲染一些静态图像。
在任何人推荐Unity实现这一目标之前-实际上,我已经设法使其在这里工作,因为它更容易掌握。这只是我的python脚本的其余部分(用于机器人远程操作)还访问SteamVR以获取控制器坐标,以便它们争用SteamVR的一个实例。...所以我正在尝试寻找替代方法以使其与我的作品一起使用当前的python脚本。
我看到了一些代码here,该代码使用OpenGL在HTC设备上渲染3D环境和多维数据集。我可以在耳机上正常显示它,但是现在我迷上了如何渲染图像而不是立方体。由于我缺乏对OpenGL和图形编程的了解,因此我不确定在帮助我向每只眼睛渲染图像方面究竟要寻找什么。
任何人都可以提出一些我可以遵循的示例代码或教程吗?谢谢!