我正在尝试构建一个iOS应用程序,它直接传输来自设备输入(或麦克风)的音频。我的想法是,每隔一段时间,我都必须将音频缓冲区发送到服务器,以便服务器将其发送给可能想要收听的另一个客户端。我打算使用WebSockets进行服务器端实现。
有没有办法从iOS设备的输入(麦克风)中获取一个特定的缓冲流并将其发送到服务器,而用户又说了一下等等等等?我想如果我可以用AVAudioRecorder
开始AVAudioEngine
并且每1秒或半秒记录一次,但我认为这会产生太多的延迟并且可能在过渡期间丢失流过程
有没有更好的方法来实现这一目标?我真的很想了解它背后的科学。如果这不是最好的方法,请告诉我它是哪一个,也许是它的实现的基本想法或可能指向正确方向的东西。
答案 0 :(得分:0)
我找到了自己问题的答案!!答案在于 SonarQube.Scanner.MSBuild.exe begin /d:sonar.testExecutionReportPaths=convertedXmlCommaDelimitedList
dotnet test Source/my.Sln -l trx
grep for trx files -> use xslt to generate convertedXml in the same dir, coupled to how convertedXmlCommaDelimitedList is generated
SonarQube.Scanner.MSBuild.exe end
框架,特别是AVFoundation
及其委托,只要输入源捕获它就会向您发送缓冲区。