我正在为Android / iOS开发具有视频聊天功能的混合移动应用程序。 UIWebView和WKWebView(iOS Webview引擎)不支持getUserMedia。
有些插件可以复制此功能,但是它们都提供了本机视频供稿,对于我的应用程序而言,这不是理想的选择。
我将OpenTok用作WebRTC介质,并且如果getUserMedia失败,我至少可以覆盖无法建立套接字连接的现有功能。 (如果存在的话,这至少可以让我在网络视图中订阅一个流)
我也可以只使用现有的iosrtc / opentok插件将iOS用户的视频发布到会话中。我面临的唯一问题实际上是弄清楚如何在webview的video元素中呈现视频供稿。
我本来是在考虑如何实现将iOS摄像机视频供稿数据推送到浏览器的方法。
http://realtimeweekly.co/how-to-use-webrtc-on-your-ios-projects-part-i/
但是,按照他的脚注:
我目前能够将1个单独的框架传递给Javascript应用程序,并在应用程序崩溃之前看到它(由于我试图通过发送将其塞入WKWebView的大量数据,作为位图。
这篇文章之后似乎没有任何更新。
鉴于此,是否有可能捕获原始视频数据并将其传递给MediaStream API? MediaStream API是否需要对来自摄像机源的本地视频数据进行编码/解码以呈现MediaStreamTrack对象?
我已经通过W3 Media Capture and Stream documentation阅读了一些内容,似乎没有指定数据类型要求,也没有指定数据如何从硬件处理到浏览器呈现。