使用AVCaptureSession
拍摄静止图像时,我遇到了性能问题。 captureStillImageAsynchronouslyFromConnection
的{{1}}方法对于较大的图片(iPhone 4S上的AVCaptureStillImageOutput
)似乎相当慢。它虽然适用于较低的预设/分辨率(包括iPod touch的相机),但效果很好。我还尝试了WWDC示例代码AVCam,并且从拍摄照片到我可以在AVCaptureSessionPresetPhoto
中实际显示它的时间点也有延迟。
有没有比从UIImageView
UIImage
获得NSData
更快,更有效的方式?
我可以选择显示正在处理图像的HUD消息或设置较低质量的预设,但事实上我实际上甚至遇到了延迟,这让我感到烦恼。
提一下 - 我也在用户拍摄后剪裁/调整图像大小,这会增加延迟,但不会太多。
感谢所有的建议/ anwsers!