我的应用程序使用Google WebRTC框架进行音频通话,并且该部分正常工作。但是,我想找到一种在通话期间流式传输音频文件的方法。
场景: A呼叫B B接听并播放音乐 听到这首音乐
我已经下载了WebRTC的全部源代码,并试图了解其工作原理。在iOS部分,似乎它正在使用音频单元。我可以看到voice_processing_audio_unit文件。我会(可能是错误地)假设我需要创建一个自定义的audio_unit,该文件正在从文件中读取其数据?
有人有哪个方向的想法吗?
答案 0 :(得分:0)
在解决此问题整整一周后。我终于设法找到了解决该问题的方法。
通过编辑WebRTC代码,我可以达到AudioUnits的级别,并在AudioRenderingCallback中捕获io_data缓冲区。
每10毫秒调用一次此回调以从麦克风获取数据。因此,在这个精确的回调中,我能够更改此io_data缓冲区以放置自己的音频数据。