我的公司最近将WebRTC
个安全摄像机流切换为使用h264
。我想知道是否有人尝试从VideoSource捕获帧。我们将提要显示在可以重用的集合视图中,我还无法弄清楚如何在知道何时开始和停止流的同时从轨道添加/删除渲染器。我想在重用时对流进行模糊处理/黑化处理,这样我们就可以将其重新显示到视图中,而不必在切换到正确的最后一帧之前看到其他摄像机。我发现一些基于过时的库的非常模糊的信息,但没有任何真正的帮助。理想情况下,我可以捕获最后一帧,将其存储,然后将其重新注入RTCVideoRenderer
中。我真的不想在内存中保持10-200 RTCVideoRenderers
的情况,如果可以避免的话,在任何给定时间只能看到2-3个。