我正在为教育网络应用程序构建一个后端程序,其前端显示某些内容的视频(可能是服务器上的某些视频),同时使用网络摄像头记录用户对视频的响应。在此之后,服务器端有一些处理。 我想将前端移植到iOS。我做了一些SO搜索,但我不清楚他们是否回答了这个问题。如果有可能在屏幕上播放另一个视频时同时从iOS设备前置摄像头录制,请告诉我吗?我的问题既涉及技术可行性,也涉及Apple关于此的规则。
如果这是重复的,请告诉我这是一个重复的问题,因为我无法找到一个好的答案。谢谢!
哈里什。
答案 0 :(得分:1)
执行此操作应该没有问题,但是您需要监控性能,因为相机对iOS处理器和内存造成严重消耗,视频也是如此。
对于这两种类型的活动,您可以使用作为iOS SDK一部分提供的AV Foundation框架。您可以在屏幕上提供视频,然后在应用程序的单独部分从屏幕捕获视频(它们是两个相对不相关的区域 - 唯一真正重要的是告诉摄像机记录同步的时间长度两个)。要从摄像机捕获视频,而不是将其放在屏幕上,您需要在AVCaptureSession中手动监视从摄像机返回的媒体。