来自OpenGL的WebRTC H264视频实时流式传输(w FFMPEG)

时间:2020-04-24 23:28:28

标签: ffmpeg video-streaming streaming webrtc h.264

我正在尝试建立一个点对点游戏流媒体平台。在这一点上,我设法捕获了OpenGL帧,并且有一个功能正常的Java Websockets服务器,我可以有2个客户端来建立对等连接(我已经解决了STUN / TURN服务器部分)并在此时传输文本。 / p>

我不太了解如何以低延迟(<100ms)流式传输由Opengl帧制成的视频。问题主要出在FFMPEG部分,我想用它来编码帧,获取结果(ffmpeg的stdin / stdout重定向?),以某种方式链接到主机的JS API(也许是本地websocket,主机的JS将连接到)。

我用stdin和stdout管道尝试了几条FFMPEG争论/命令,但它们不起作用。

enter image description here

1 个答案:

答案 0 :(得分:1)

您使用的是哪种WebRTC客户端?什么是H264 Live流流入?

浏览器中的WebRTC有一些限制(仅因为实现是幼稚的)。尝试做约束基线,并做一个很小的关键帧间隔(通常一秒钟对于原型来说是好的!)

如果您没有WebRTC客户端,则可以执行类似webrtc-remote-screen

的操作