仅为iOS构建WebRTC音频处理代码

时间:2015-11-03 15:20:48

标签: ios objective-c xcode build webrtc

目标是将WebRTC音频处理模块代码集成到iOS中,以便在我的应用程序中使用。我遇到了很多像

这样的问题
  1. 需要删除ASM代码文件而不进行编译。
  2. Objective-C ++不能很好地处理虚拟AudioProcessing类(因此我甚至试图测试它时遇到问题:https://stackoverflow.com/questions/33150058/using-webrtc-c-classes-in-objective-c-gives-exc-bad-access
  3. 似乎有几个引用线程功能让我感到紧张,如果我尝试使用它们,我的应用程序将崩溃。
  4. 我已经在使用C ++ for x86_64处理器方面有一些经验。让这个模块适用于iOS设备并在Xcode中编译的步骤是什么?

2 个答案:

答案 0 :(得分:0)

有几种方法可以编译适用于iOS的WebRTC API。到目前为止,最简单的方法是安装cocoapods并使用:

pod "libjingle_peerconnection"

另一种方法是使用provided guidelines自己动手。这可能有点难以管理,但它的优点是能够在编译之前修补代码以满足您的需求。看到你最终只想要音频处理模块,我说这是你的选择。

第三种选择是使用为您实现底层WebRTC代码的各种可用SDK之一。他们的缺点通常是他们没有自由。

答案 1 :(得分:0)

您应该使用目录src / webrtc / build / ios / build_ios_libs.sh下的构建脚本从WebRTC-ios源编译库。按照官方指南设置构建环境并运行构建脚本。然后你可以在目录src / out_ios_libs下找到webrtc-ios使用的所有库,在那里你应该找到你需要的音频处理库。 找到特定的标题和* .a您需要与您的应用程序链接。

以下是WebRTC网站:https://webrtc.org/