在webRTC通话期间在WebRTC中传输音频

时间:2018-09-25 15:28:35

标签: ios webrtc

我的应用程序使用Google WebRTC框架进行音频通话,并且该部分正常工作。但是,我想找到一种在通话期间流式传输音频文件的方法。

场景: A呼叫B B接听并播放音乐 听到这首音乐

我已经下载了WebRTC的全部源代码,并试图了解其工作原理。在iOS部分,似乎它正在使用音频单元。我可以看到voice_processing_audio_unit文件。我会(可能是错误地)假设我需要创建一个自定义的audio_unit,该文件正在从文件中读取其数据?

有人有哪个方向的想法吗?

1 个答案:

答案 0 :(得分:0)

在解决此问题整整一周后。我终于设法找到了解决该问题的方法。

通过编辑WebRTC代码,我可以达到AudioUnits的级别,并在AudioRenderingCallback中捕获io_data缓冲区。

每10毫秒调用一次此回调以从麦克风获取数据。因此,在这个精确的回调中,我能够更改此io_data缓冲区以放置自己的音频数据。