我正在为iOS和MAC制作一个简单的相机应用程序。在用户拍摄照片后,它会在iOS上生成UIimage(MAC上的NSImage)。我希望能够突出显示图像中过度曝光的区域。基本上,当显示图像时,过度曝光的区域会闪烁。
任何人都知道如何判断图像过度曝光的算法。我只是在每个像素上加上R,G,B值。如果每个像素的总数大于一定数量,那么开始闪烁该像素,并为所有像素执行此操作?
或者我是否需要从外太空做一些复杂的数学运算才能搞清楚?
由于 粗
答案 0 :(得分:0)
你必须遍历图像,根据你所需的精度和精度,你可以结合跳过和平均像素来得到一个平滑的区域...... 它将取决于你的色彩空间的细节,但想象YUV空间(因为你只需要看一个值,Y或亮度):
如果240/255被认为是白色,那么更大的250/255值将被曝光,您可以将其标记,然后以叠加显示。