使用蒙版获取图像像素

时间:2013-03-25 06:46:54

标签: c++ ios objective-c cocos2d-iphone shader

所以我有一些原始图像。

我需要使用特定的遮罩来显示和显示该图像的某些部分。面具不是矩形或形状。它包含不同的多边形和形状。

是否有任何方法或教程如何实现?或者从哪里开始制作这个?我应该写一些小的着色器或比较图像的适当像素或类似的东西吗?

对任何建议都会很高兴。

谢谢

1 个答案:

答案 0 :(得分:3)

您可以将图像放在UIImageView中,并使用类似

的内容为该图像视图添加遮罩
myImageView.layer.mask = myMaskLayer;

要绘制自定义形状,myMaskLayer应该是您自己的CALayer子类的实例,它实现drawInContext方法。该方法应绘制图像中显示的区域,其中包含完整的alpha和要隐藏的区域为零alpha(如果您愿意,也可以在alphas之间使用)。以下是CALayer子类的示例实现,当用作图像视图上的蒙版时,将仅显示图像左上角的椭圆区域:

@interface MyMaskLayer : CALayer
@end

@implementation MyMaskLayer
- (void)drawInContext:(CGContextRef)ctx {
    static CGColorSpaceRef rgbColorSpace;
    static dispatch_once_t onceToken;
    dispatch_once(&onceToken, ^{
        rgbColorSpace = CGColorSpaceCreateDeviceRGB();
    });

    const CGRect selfBounds = self.bounds;
    CGContextSetFillColorSpace(ctx, rgbColorSpace);
    CGContextSetFillColor(ctx, (CGFloat[4]){0.0, 0.0, 0.0, 0.0});
    CGContextFillRect(ctx, selfBounds);
    CGContextSetFillColor(ctx, (CGFloat[4]){0.0, 0.0, 0.0, 1.0});
    CGContextFillEllipseInRect(ctx, selfBounds);
}
@end

要将此类遮罩层应用于图像视图,您可以使用此类代码

MyMaskLayer *maskLayer = [[MyMaskLayer alloc] init];
maskLayer.bounds = self.view.bounds;
[maskLayer setNeedsDisplay];
self.imageView.layer.mask = maskLayer;

现在,如果你想从这样的渲染中获取像素数据,最好渲染到由控制像素缓冲区的位图支持的CGContext。渲染后,您可以检查缓冲区中的像素数据。这是一个示例,我创建一个位图上下文并将一个图层和蒙版渲染到该位图上下文中。由于我为像素数据提供了自己的缓冲区,因此我可以在缓冲区中调整以获取渲染后的RGBA值。

const CGRect imageViewBounds = self.imageView.bounds;
const size_t imageWidth = CGRectGetWidth(imageViewBounds);
const size_t imageHeight = CGRectGetHeight(imageViewBounds);
const size_t bytesPerPixel = 4;
// Allocate your own buffer for the bitmap data.  You can pass NULL to
// CGBitmapContextCreate and then Quartz will allocate the memory for you, but
// you won't have a pointer to the resulting pixel data you want to inspect!
unsigned char *bitmapData = (unsigned char *)malloc(imageWidth * imageHeight * bytesPerPixel);
CGContextRef context = CGBitmapContextCreate(bitmapData, imageWidth, imageHeight, 8, bytesPerPixel * imageWidth, rgbColorSpace, kCGImageAlphaPremultipliedLast);
// Render the image into the bitmap context.
[self.imageView.layer renderInContext:context];
// Set the blend mode to destination in, pixels become "destination * source alpha"
CGContextSetBlendMode(context, kCGBlendModeDestinationIn);
// Render the mask into the bitmap context.
[self.imageView.layer.mask renderInContext:context];
// Whatever you like here, I just chose the middle of the image.
const size_t x = imageWidth / 2;
const size_t y = imageHeight / 2;
const size_t pixelIndex = y * imageWidth + x;
const unsigned char red = bitmapData[pixelIndex];
const unsigned char green = bitmapData[pixelIndex + 1];
const unsigned char blue = bitmapData[pixelIndex + 2];
const unsigned char alpha = bitmapData[pixelIndex + 3];
NSLog(@"rgba: {%u, %u, %u, %u}", red, green, blue, alpha);