我对此感到有点头疼。我正在使用iPhone相机来使用AVFoundation捕捉实时图像。在captureOutput函数中,我根据apple开发人员的说明从sampleBuffer创建一个UIImage - 如果我将这个图像保存到相机胶卷,我可以查看它并且它看起来像预期的那样(我每次调用captureOutput都不会这样做!) 。但是我不想保存它 - 而是想看看它的一些像素值。
所以再次使用苹果笔记我得到X&的像素值Y分。我还注意到颜色顺序是BGRA(不是RGBA),所以我可以得到这些值,它们看起来都很好,只是它们看起来是错的......
如果我将完全相同的图像保存到相机胶卷,请将其发送给我自己,然后将其放入我的xcode项目中,这样我就可以在我的应用程序中创建一个UIImage,然后我可以通过完全相同的方法集我为像素RGB数据得到了一组不同的数字(我确实为此图像切换回RGBA,但即使允许BGRA错误,数字也不匹配) - 确认我在使用C#的PC上创建了相同的例程相同的图像并得到相同的数字。
在内存中创建的UIImage和随后保存并重新加载的UIImage之间是否存在差异?
感谢您的任何建议!