处理来自服务器上的WebRTC对等连接的音频流

时间:2014-05-17 18:58:47

标签: c++ node.js server-side audio-streaming webrtc

我正在开发一个实验性的对等服务器WebRTC项目,其中

  1. 客户端(Chrome)将其本地音频流发送到远程服务器
  2. 远程服务器将该音频流记录到文件中以供以后处理
  3. 服务器使该特定文件可供发送它的客户端在其浏览器中回听
  4. 服务器执行2和3,因为音频流进入
  5. 我知道该怎么做1.对于2,我目前在" trunk \ talk \ examples \ peerconnection \ client StartRecordingPlayout) >"用C ++编写的项目。我能够将从远程对等方(Chrome)发送的音频流录制到接收方的WAV文件中,并使用VLC媒体播放器进行收听。

    我正在研究我的项目可用的其他技术/语言。这是因为我觉得目前开发本地WebRTC应用程序的资源不多。然后我最近发现了Node.js。

    WebRTC和Node.js的组合是否是创建上述服务器应用程序的不错选择?

    任何建议都将受到赞赏。

1 个答案:

答案 0 :(得分:0)

目前唯一可行的方法是本地录制或操纵音频流。从rtcpeerconnection到达的JavaScript AudioContext中提供的Audio Web API(特别是cannot parse a remote party's buffers)。这是当前的low priority bug in chrome。我不确定API的所有其他实现是否都有相同的问题。

您可以尝试获取已实施Node.jsRecordRTC for Node的音频API,但我敢打赌,两者都会遇到同样的问题。如果他们不这样做,我会很高兴,如果他们不这样做,两者都可以成为您申请的有效选择。

除了本机解决方案之外,唯一的选择是让客户端与对等连接分开发送音频缓冲区,但这几乎会破坏使用WebRTC对等连接的目的。