我有一种将图像压缩到一定大小的方法,所以我得到了一个带有所需字节的NSData,但是当我将这个NSData转换为UIImage,而将UIImage转换为NSData时,我可以检查NSData的大小增加(原始值乘以4 aprox。)
UIImage *image = [UIImage imageWithData:imageData];
NSData *newData = UIImageJPEGRepresentation(image,1.0f);
为什么会这样?我只想获得有关UIImage文件大小的控制(用于存储在数据库中)。
我在下面发布我的代码。
提前致谢。
+ (NSData *) dataOfCompressingImage:(UIImage *)pImage toMaxSize:(CGSize)pSize toFileSizeKB:(NSInteger)pFileSizeKB{
CGSize aSize;
if (pSize.width==0 || pSize.height==0){
aSize = pImage.size;
}else{
aSize = pSize;
}
UIImage *currentImage = [self imageWithImage:pImage scaledToSize:aSize];
NSData *imageData = UIImageJPEGRepresentation(currentImage, 1.0f);
NSInteger currentLength = [imageData length];
double factor = 1.0;
double adjustment = 1.0 / sqrt(2.0); // or use 0.8 or whatever you want
while (currentLength >= (pFileSizeKB * 1024)){ //
factor *= adjustment;
NSLog(@"factor: %f", factor);
@autoreleasepool{
imageData = UIImageJPEGRepresentation(currentImage, factor);
}
if (currentLength == [imageData length]){
break; //Exit While. Reached maximum compression level
}else{
currentLength = [imageData length];
}
}
return imageData;
}
答案 0 :(得分:2)
这种情况正在发生,因为当您执行UIImageJPEGRepresentation时,您使用的是1.0的品质因数,导致JPEG的频率成分以过高的分辨率存储。
按照这种方式思考,如果你有一个浮点数组,你可以将它们存储为双排数组(如果你想要的话)。由于数据类型的大小,这些双打将占用两倍的内存,但由于起始数据的分辨率有限,实际上并没有提供更多的分辨率。