我正在尝试制作一个可以在iOS上作为H5运行的AR应用程序。
我使用WebGL绘制3D项目,这很好。 我使用DeviceOrientationEvent来获取设备Motion来控制3D中的虚拟摄像头,这很好。
我知道,到目前为止,iOS上的H5无法支持显示摄像机视频流。
我想用混合方式解决这个问题。
我编写本机代码来获取相机视频流,并将帧数据设置为OpenGL作为Y平面纹理和UV平面纹理。
然后,我尝试在我的WebGL着色器代码中访问这些纹理。它不好。
就谷歌来说,在iOS本机代码中,只有当EAGLContext对象init与sharegroup一起使用时,OpenGL命令才有意义。
- (instancetype) initWithAPI:(EAGLRenderingAPI) api sharegroup:(EAGLSharegroup*) sharegroup
所以,如果我的混合方式可以做WebAR,关键是如何从UIWebView获取EAGLContext 。
任何人都可以告诉我你的想法吗?