通过iOS设备的麦克风将音频缓冲区部分发送到服务器

时间:2017-12-26 20:17:36

标签: ios broadcast live-streaming avaudiorecorder

我正在尝试构建一个iOS应用程序,它直接传输来自设备输入(或麦克风)的音频。我的想法是,每隔一段时间,我都必须将音频缓冲区发送到服务器,以便服务器将其发送给可能想要收听的另一个客户端。我打算使用WebSockets进行服务器端实现。

有没有办法从iOS设备的输入(麦克风)中获取一个特定的缓冲流并将其发送到服务器,而用户又说了一下等等等等?我想如果我可以用AVAudioRecorder开始AVAudioEngine并且每1秒或半秒记录一次,但我认为这会产生太多的延迟并且可能在过渡期间丢失流过程

有没有更好的方法来实现这一目标?我真的很想了解它背后的科学。如果这不是最好的方法,请告诉我它是哪一个,也许是它的实现的基本想法或可能指向正确方向的东西。

1 个答案:

答案 0 :(得分:0)

我找到了自己问题的答案!!答案在于 SonarQube.Scanner.MSBuild.exe begin /d:sonar.testExecutionReportPaths=convertedXmlCommaDelimitedList dotnet test Source/my.Sln -l trx grep for trx files -> use xslt to generate convertedXml in the same dir, coupled to how convertedXmlCommaDelimitedList is generated SonarQube.Scanner.MSBuild.exe end 框架,特别是AVFoundation及其委托,只要输入源捕获它就会向您发送缓冲区。