关于将模拟图像转换为数字图像时的采样过程的一个问题。我了解百万像素和东西,以及百万像素神话如何为数码相机行业提供良好的服务。而且我已经明白,更大的传感器更好(这就是为什么傻瓜式14MP相机的质量会比12MP数码单反相机更差 - 如果存在这样的MP数量的话......)
我一直在阅读CCD和CMOS如何数字化图像(比如在数码相机中)。整体概念非常清楚。我仍然感到困惑的唯一事情,虽然可能是一件简单的事情,但是......传感器数量(在传感器阵列上)是否转换为最终图像中的像素数量。是这样的吗?意思是,传感器阵列是10 X 10(是的,非常小,但仅作为示例)。但这是否意味着还要拍摄10×10的样本?最终转化为具有10px X 10px“空间分辨率”的数字图像? (我正在使用“”,因为我读过有很多定义,甚至是空间分辨率)
在Gonzalez和伍兹(Plz参考图片)中阅读这部分后,我想到了这个问题。
感谢任何反馈:D谢谢!
答案 0 :(得分:3)
是的,在你提供的琐碎和人为的例子中,你是对的 - 传感器中的像素数相当于最终图像中的像素数。
现实世界通常有点复杂。例如,如果您想要颜色,每个像素需要一个读数,每个原色为红色,绿色和蓝色。但是大多数传感器每个像素只生成一个读数。每个读数的颜色由位于每个像素上的Bayer Filter确定,缺失值必须通过插值填充 - 称为demosaicing的过程。
实际传感器还将包含少量不会进入最终图像的像素。有些用于测量黑色等级(它们被屏蔽,因此没有光线照射它们),有些用于在图像边缘提供额外信息,因此去马赛克过程可以正常工作。如果摄像机的输出是JPEG图像,则尺寸通常是16的倍数,以匹配JPEG压缩使用的块大小。
对传感器进行下采样以提供较低分辨率的最终图像也是很常见的。相机通常会为此提供一个选项,静止图像相机生成的视频会自动完成。
答案 1 :(得分:2)
图片中的最终尺寸为:
D = (X/Z) * f / p
,其中
D:图像中的对象大小(以像素为单位)
X:物体的大小(mm)
Z:到物体的距离(mm)
f:镜头的焦距(mm)
p:传感器的像素大小(mm /像素) - 您可以在传感器的规格表中找到它。