我正在尝试建立一个点对点游戏流媒体平台。在这一点上,我设法捕获了OpenGL帧,并且有一个功能正常的Java Websockets服务器,我可以有2个客户端来建立对等连接(我已经解决了STUN / TURN服务器部分)并在此时传输文本。 / p>
我不太了解如何以低延迟(<100ms)流式传输由Opengl帧制成的视频。问题主要出在FFMPEG部分,我想用它来编码帧,获取结果(ffmpeg的stdin / stdout重定向?),以某种方式链接到主机的JS API(也许是本地websocket,主机的JS将连接到)。
我用stdin和stdout管道尝试了几条FFMPEG争论/命令,但它们不起作用。
答案 0 :(得分:1)
您使用的是哪种WebRTC客户端?什么是H264 Live流流入?
浏览器中的WebRTC有一些限制(仅因为实现是幼稚的)。尝试做约束基线,并做一个很小的关键帧间隔(通常一秒钟对于原型来说是好的!)
如果您没有WebRTC客户端,则可以执行类似webrtc-remote-screen
的操作