部分iOS设备的摄像头为720P,其他设备为1080P。
保持屏幕尺寸固定,显然1080P将提供更好的画面,因为我们在相同的屏幕尺寸下拟合更多像素。
但是如果我们想用以下方法操纵像素:
-(void) captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
并且为了论证,我们不会将它们渲染到任何地方,而是对它们进行计算。
显然,缓冲区的高度和宽度会更大,但是1080P相机会捕获更多的像素,因为可能会有更宽的相机“视野”,所以没有提高质量或1080p相机在同一工作720p相机的“视野”,它只是捕获每英寸更多的像素,所以即使我没有将缓冲区输出到图像,我应该期待更多的“纹理/细节”来自我的帧缓冲区。
由于
答案 0 :(得分:2)
它们具有相同的视野,唯一的区别是1080捕获来自同一区域的更多像素。这就是框架更大的原因,如果您在哪里打印原始帧,您将看到1080图像如何大于720,但图像是相同的。因此,当您在同一窗口中显示时,1080看起来更漂亮。但是,所需的内存较高且帧的获取速度较低,如果启用了“丢弃后期帧”选项,您可能还会注意到1080分辨率的帧丢失较高。
根据计算速度的不同,您可能需要进一步降低计算速度,例如,如果需要平滑度,那么使用1080执行重型OpenCV风格的图像处理根本不可能。
顺便说一下,这不是iOS或OpenGL问题。它的解决方案如何运作。即使电视广播的质量也遵循相同的原则。