将getUserMedia流式传输到服务器

时间:2015-12-05 06:25:55

标签: node.js websocket video-streaming getusermedia

我是二元数据和getUserMedia的新手,将getUserMedia(视频/音频)流式传输到服务器,然后为其他连接准备流(视频/音频)的推荐方法是什么?

我最初的想法是通过websockets发送数据,然后将数据写入文件(mp4),如下所示:

getUserMedia -->(websockets)--> server -->(file.mp4)--> video.src

我一直在关注MediaStreamRecorder,我可以像这样发送一个缓冲区:

multiStreamRecorder.ondataavailable = function (blobs) {
    socket.emit('blobs', blobs)
};
我在服务器上

{ audio: <Buffer 52 49 46 46 2c 10 04 00 57 41 56 45 66 6d 74 20 10 00 00 00 01 00 01 00 44 ac 00 00 10 b1 02 00 02 00 10 00 64 61 74 61 00 10 04 00 f8 ff 04 00 0d 00 ... >,
  video: <Buffer 1a 45 df a3 40 20 42 86 81 01 42 f7 81 01 42 f2 81 04 42 f3 81 08 42 82 40 04 77 65 62 6d 42 87 81 02 42 85 81 02 18 53 80 67 10 0a 41 54 15 49 a9 66 ... >,
  onDataAvailableEventFired: true }

现在我想我应该将它写入文件,提供该文件,然后从video元素的源请求该文件。如果这一切都正确我将如何将文件写入文件系统?或者我做错了什么?

我了解WebRTC具有p2p功能,我将视频流服务于~50个或更多客户端,因此不能选择。

使用websocket解决方案进行更新:

我现在通过websockets发回数据,如下所示:

socket.on('blobs', function(data){
    socket.emit('blobs', data)
})

并在客户端将其推入mediaSource,然后将video元素推送到timestampOffset以保持平滑。

var mediaSource = new MediaSource(),
    mediaBuffer,
    // init duration of 0 seems fine
    duration = 0;

var video = $('video').get(0);
video.src = window.URL.createObjectURL(mediaSource);

mediaSource.addEventListener('sourceopen', function(e) {
    mediaBuffer = mediaSource.addSourceBuffer('video/webm; codecs="vp8"')
    mediaBuffer.addEventListener('update', function() {
        // wait for mediaBuffer update to fire before setting the new duration
        duration = video.duration
    });
}, false);

socket.on('blobs', function (data) {
    mediaBuffer.timestampOffset = duration;
    mediaBuffer.appendBuffer(new Uint8Array(data.video));
});

1 个答案:

答案 0 :(得分:6)

为了使这项工作正常,你需要服务器来&#34;说&#34; WebRTC也是如此。使用websockets不会给你想要的结果,也不会像WebRTC一样响应 - 它不会是实时的。

要让WebRTC在服务器上运行,您可以使用webrtc.orgOpenWebRTC的WebRTC堆栈作为起点,使用GStreamer或者更完整的东西。 WebRTC开始的媒体服务器框架的好项目是KurentoJitsiJanus

由于您的问题的性质,我的建议是从上面提到的一个更完整的媒体服务器框架开始。