应该发生什么:
用户将(例如使用Apple Pencil)绘制到UIView中。完成后,将从该视图创建一个UIImage,然后逐一读取ARGB数据,最后将其存储到NSData中。
稍后,NSData将再次用于重新创建映像。 (我知道我可以轻松实现类似的目标,但请假设有充分的理由采取这种做法。)
实际发生的事情:
用户进入视图,UIImage被获取,但是当代码访问图像数据时,发生了一些连线:数据似乎不适合图像,当用于重建图像时,这些变得明显。
这是代码。
从UIView
初始化
- (instancetype)initWithFrame:(CGRect)frame
{
self = [super initWithFrame:frame];
if (self) {
self.layer.allowsEdgeAntialiasing=YES;
self.backgroundColor=[UIColor clearColor];
}
return self;
}
绘图
- (void) touchesBegan:(NSSet *)touches withEvent:(UIEvent *)event {
UITouch *touch = [[event allTouches]anyObject];
CGPoint touchLocation = [touch locationInView:self];
if (myImage!=nil) {
UIImageView * iV = [[UIImageView alloc] initWithFrame:self.bounds];
iV.image = myImage;
[self insertSubview:iV atIndex:0];
}
myPath = [UIBezierPath bezierPath];
[myPath moveToPoint:touchLocation];
}
- (void) touchesMoved:(NSSet<UITouch *> *)touches withEvent:(UIEvent *)event {
UITouch *touch = [[event allTouches]anyObject];
CGPoint touchLocation = [touch locationInView:self];
[myPath addLineToPoint:touchLocation];
[self setNeedsDisplay];
}
-(void)touchesEnded:(NSSet<UITouch *> *)touches withEvent:(UIEvent *)event{
myImage = self.imageRepresentation;
}
- (void) drawRect:(CGRect)rect {
self.context = UIGraphicsGetCurrentContext();
[[UIColor blackColor]setStroke];
myPath.lineWidth=3.0;
[myPath stroke];
}
从UIView获取UIImage
-(UIImage *)imageRepresentation{
UIGraphicsBeginImageContextWithOptions(self.bounds.size, NO, 1.0);
[self.layer renderInContext:UIGraphicsGetCurrentContext()];
myImage= UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
return myImage;
}
读取和转换图像数据
-(NSData *) pixel{
int sidelength = (int) self.myImage.size.width;
int numberData = sidelength * sidelength * 4;
CFDataRef pixelData = CGDataProviderCopyData(CGImageGetDataProvider(self.myImage.CGImage));
const UInt8 * data = CFDataGetBytePtr(pixelData);
UInt8 pixel[numberData];
for (int y=0; y<sidelength; y++) {
for (int x=0; x<sidelength; x++) {
int components = sidelength * y + x * 4;
UInt8 a = data[components];
UInt8 r = data[components+1];
UInt8 g = data[components+2];
UInt8 b = data[components+3];
pixel[components]=a;
pixel[components+1]=r;
pixel[components+2]=g;
pixel[components+3]=b;
}
}
CFRelease(pixelData);
return [NSData dataWithBytes:pixel length:sidelength*sidelength*4];;
来自其他班级
使用NSData检索图片
-(UIImage *) getImage{
UInt8 * pixel=malloc(sizeof(UInt8)*self.numberBytes);
pixel = (UInt8 *) booleanData.bytes;
const int Width = self.size.width;
const int Height = self.size.height;
const int ComponentsPerPixel = 4;
const size_t BitsPerComponent = 8;
const size_t BytesPerRow=((BitsPerComponent * Width) / 8) * ComponentsPerPixel;
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef gtx = CGBitmapContextCreate(&pixel[0], Width, Height, BitsPerComponent, BytesPerRow, colorSpace, kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Host);
CGImageRef toCGImage = CGBitmapContextCreateImage(gtx);
UIImage * image = [[UIImage alloc] initWithCGImage:toCGImage];
return image;
}
以下是结果示例:
使用“ imageRepresentation”渲染的原始图形:
使用“像素”和“ getImage”检索的图片:
我希望罪魁祸首是“像素”方法,因为我检查了它的结果,发现它们已经很错误了。另外,我在不同的设置下测试了“ getImage”,它工作得很好。但是奇怪的是,“像素”也是如此。那么,是否有可能以与png或jpg不同的方式呈现UIView?我检查了UIGraphicsBeginImageContextWithOptions的文档,但这没有给我有用的提示。
答案 0 :(得分:1)
有两个问题。第一个是您没有使用pixel
方法将所有图像数据插入到pixel
数组中。
如果图像为100x100,则字节总数为10000乘以4。在for
循环中,您获得的最大像素为100x100 + 100x4,即10400。其余像素包含垃圾。
此循环将完成这项工作:
for (unsigned long i = 0; i < numberData; i += 4) {
pixel[i] = data[i];
pixel[i + 1] = data[i + 1];
pixel[i + 2] = data[i + 2];
pixel[i + 3] = data[i + 3];
}
第二个问题更有趣。如果重新生成的图像的宽度不是64的倍数,则将被扭曲。CGBitmapContextCreate
中存在某种错误-大约六年前,我将该错误提交给Apple,他们声称已将其修复,但是可以在某些条件下很容易复制。
我运行了您的代码(使用新循环),它在大小为128x128的UIView
上正常工作,但是在大小为100x100时返回扭曲的图像。