我想知道是否可以使用AVFoundation框架同时从两个摄像头捕获。具体来说,我的问题是前后AVCaptureDevices是否可以同时处于活动状态。
目前我知道AVCaptureSession实例只能支持一个输入(和输出)。我创建了两个AVCaptureSessions,将前置摄像头设备连接到一个,然后将其连接到另一个,然后我将会话的输出指向不同的SampleBufferDelegate函数。我看到的是,一个委托函数在几帧中处于活动状态,然后另一个委托函数接管。似乎AVFoundation在某种程度上关闭了相机设备,如果正在使用另一个相机设备。任何人都可以证实这一点或分享他们在这个问题上的经验吗?
提前致谢
答案 0 :(得分:6)
回答我自己的问题:
答案 1 :(得分:0)
在iOS 13上可以实现。现在,可以使用多台摄像机同时将前后摄像机的输出记录到一个电影文件中