我想将rgb帧(实时)数据作为视频视频流通过网络传输到浏览器(chrome / firefox)。
所以我得到了rgb - > yuv - > yv12 - > vp8转换已完成。我可以在本地播放vp8视频,看起来不错。
现在我需要能够将这些数据提供给webrtc,以便其他“客户”可以看到这一点。
现在这可行吗?
我打算将vp8包装在webm视频文件周围但不写实际文件长度,因为我不知道它的长度,因为它是实时流式传输并在浏览器上创建标签并开始提供数据。 (我以前用Theora做过这个,“伪造流媒体,确定它有点慢,而且是TCP,但它有效延迟)。
或者我要将数据提供给webrtc。我甚至不知道api是否允许这样的东西。我可能需要稍微破解它。
回顾:进程A创建一个NxM rgb视频并将其写入其缓冲区。 进程B通过IPC读取该缓冲区将其编码为VP8,进程B通过webm或webRtc将其发送到具有VP8的浏览器。
答案 0 :(得分:1)
就我能够找到研究相关情况而言,这还不可能。视频只能来自系统上配置的设备(网络摄像头,音频等)。我相信我可以在拟议的规范草案中读到一段时间,但我们还没有。我知道他们正在努力允许从网络音频API访问,但我不确定当前的状态。