如何在appRTC iOS中本地录制和保存RTCVideoTrack?

时间:2016-10-28 07:15:46

标签: swift avfoundation webrtc avcapturesession apprtc

我正在使用重放工具包来录制屏幕,我想要实现的是在使用webRTC SDK进行呼叫时使用音频录制或捕获屏幕。我使用过github的appRTC。

我想我可以通过AVCaptureSession实现这一目标!因为我想排除replayKit 没有相关的代码可供提供。

1 个答案:

答案 0 :(得分:2)

这很有挑战性,但可以做到。我无法提供详细的答案,因为它是我们的应用程序的核心,我们正在构建的内容以及它的大量代码,但希望它有助于了解它完成。

为您提供几点建议:

  1. 查看http://cocoadocs.org/docsets/chrome50_libjingle_peerconnection/1.0.50/Classes/RTCAVFoundationVideoSource.html这将允许您访问WebRTC正在使用的AVCaptureSession,您可以成功将AVAssetWriter连接到此。
  2. 查看RTCVideoRenderer协议参考。 http://cocoadocs.org/docsets/Quickblox-WebRTC/2.2/Protocols/RTCVideoRenderer.html它将使您能够在WebRTC渲染帧时对其进行处理,并在将它们传递回WebRTC之前对其进行处理。您需要将收到的RTCI420Frame转换为CVPixelBufferRef(这是YUV420到RGB的转换)。