标签: ffmpeg webrtc live-streaming
我正在尝试了解直播解决方案的可行性。 我想抓住WebRTC流(音频和视频),将它们发送到服务器并将其转换为块,以使用WebM容器(VP8和Opus编解码器)发送到html5视频标签或DASH播放器。
我也研究过ffmpeg,ffserver和gstreamer但是......
我的问题是如何提供WebRTC流(实时)并将其转换为HTTP块(实时DASH兼容)?
有人取得过这样的成就吗?