我正在使用SurfaceView捕获图像并在 public void onPreviewFrame4(byte []数据,相机相机)中获取Yuv Raw预览数据
我必须在onPreviewFrame上执行一些图像预处理,所以我需要将Yuv预览数据转换为RGB数据,而不是图像预处理并返回到Yuv数据。
我使用了两种函数来编码和解码Yuv数据到RGB,如下所示:
public void onPreviewFrame(byte[] data, Camera camera) {
Point cameraResolution = configManager.getCameraResolution();
if (data != null) {
Log.i("DEBUG", "data Not Null");
// Preprocessing
Log.i("DEBUG", "Try For Image Processing");
Camera.Parameters mParameters = camera.getParameters();
Size mSize = mParameters.getPreviewSize();
int mWidth = mSize.width;
int mHeight = mSize.height;
int[] mIntArray = new int[mWidth * mHeight];
// Decode Yuv data to integer array
decodeYUV420SP(mIntArray, data, mWidth, mHeight);
// Converting int mIntArray to Bitmap and
// than image preprocessing
// and back to mIntArray.
// Encode intArray to Yuv data
encodeYUV420SP(data, mIntArray, mWidth, mHeight);
}
}
static public void decodeYUV420SP(int[] rgba, byte[] yuv420sp, int width,
int height) {
final int frameSize = width * height;
for (int j = 0, yp = 0; j < height; j++) {
int uvp = frameSize + (j >> 1) * width, u = 0, v = 0;
for (int i = 0; i < width; i++, yp++) {
int y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0)
y = 0;
if ((i & 1) == 0) {
v = (0xff & yuv420sp[uvp++]) - 128;
u = (0xff & yuv420sp[uvp++]) - 128;
}
int y1192 = 1192 * y;
int r = (y1192 + 1634 * v);
int g = (y1192 - 833 * v - 400 * u);
int b = (y1192 + 2066 * u);
if (r < 0)
r = 0;
else if (r > 262143)
r = 262143;
if (g < 0)
g = 0;
else if (g > 262143)
g = 262143;
if (b < 0)
b = 0;
else if (b > 262143)
b = 262143;
// rgb[yp] = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) &
// 0xff00) | ((b >> 10) & 0xff);
// rgba, divide 2^10 ( >> 10)
rgba[yp] = ((r << 14) & 0xff000000) | ((g << 6) & 0xff0000)
| ((b >> 2) | 0xff00);
}
}
}
static public void encodeYUV420SP_original(byte[] yuv420sp, int[] rgba,
int width, int height) {
final int frameSize = width * height;
int[] U, V;
U = new int[frameSize];
V = new int[frameSize];
final int uvwidth = width / 2;
int r, g, b, y, u, v;
for (int j = 0; j < height; j++) {
int index = width * j;
for (int i = 0; i < width; i++) {
r = (rgba[index] & 0xff000000) >> 24;
g = (rgba[index] & 0xff0000) >> 16;
b = (rgba[index] & 0xff00) >> 8;
// rgb to yuv
y = (66 * r + 129 * g + 25 * b + 128) >> 8 + 16;
u = (-38 * r - 74 * g + 112 * b + 128) >> 8 + 128;
v = (112 * r - 94 * g - 18 * b + 128) >> 8 + 128;
// clip y
yuv420sp[index++] = (byte) ((y < 0) ? 0 : ((y > 255) ? 255 : y));
U[index] = u;
V[index++] = v;
}
}
问题是编码和解码Yuv数据可能有一些错误,因为如果我跳过预处理步骤,那么编码的Yuv数据也不同于PreviewCallback的原始数据。
请帮我解决此问题。我必须在OCR扫描中使用此代码,因此我需要实现这种类型的逻辑。
如果有任何其他做同样事情的方式,请提供给我。
提前致谢。 :)
答案 0 :(得分:39)
虽然文档建议您可以设置图像数据应从相机到达的格式,但实际上您通常可以选择一种格式:NV21,YUV格式。有关此格式的大量信息,请参阅http://www.fourcc.org/yuv.php#NV21,有关将其转换为RGB背后理论的信息,请参阅http://www.fourcc.org/fccyvrgb.php。在Extract black and white image from android camera's NV21 format处有一个基于图片的解释。
另一种称为YUV420SP的格式也非常普遍。
然而,一旦你设置了onPreviewFrame例程,从它发送给你的有用数据的字节数组的机制有点,嗯,不清楚。从API 8开始,可以使用以下解决方案来获取保留图像JPEG的ByteStream(compressToJpeg是YuvImage提供的唯一转换选项):
// pWidth and pHeight define the size of the preview Frame
ByteArrayOutputStream out = new ByteArrayOutputStream();
// Alter the second parameter of this to the actual format you are receiving
YuvImage yuv = new YuvImage(data, ImageFormat.NV21, pWidth, pHeight, null);
// bWidth and bHeight define the size of the bitmap you wish the fill with the preview image
yuv.compressToJpeg(new Rect(0, 0, bWidth, bHeight), 50, out);
然后可能需要将此JPEG转换为所需的格式。如果你想要一个位图:
byte[] bytes = out.toByteArray();
Bitmap bitmap= BitmapFactory.decodeByteArray(bytes, 0, bytes.length);
如果由于某种原因,您无法执行此操作,则可以手动执行转换。这样做有些问题需要克服:
数据以字节数组形式到达。根据定义,字节是带符号的数字,意味着它们从-128到127.但是,数据实际上是无符号字节(0到255)。如果没有处理,结果注定会产生一些奇怪的剪辑效果。
数据的排列非常具体(按照前面提到的网页),每个像素都需要仔细提取。
比如,需要将每个像素放在位图上的正确位置。这也需要一种相当混乱的(在我看来)构建数据缓冲区然后从中填充位图的方法。
如果你真的有NV12(或420SP),那么你需要交换U和V的读数。
我提出了一个解决方案(似乎有效),要求更正,改进以及使整个事情运行成本更低的方法。它创建一个与预览图像大小相同的位图:
数据变量来自对onPreviewFrame的调用
// the bitmap we want to fill with the image
Bitmap bitmap = Bitmap.createBitmap(imageWidth, imageHeight, Bitmap.Config.ARGB_8888);
int numPixels = imageWidth*imageHeight;
// the buffer we fill up which we then fill the bitmap with
IntBuffer intBuffer = IntBuffer.allocate(imageWidth*imageHeight);
// If you're reusing a buffer, next line imperative to refill from the start,
// if not good practice
intBuffer.position(0);
// Set the alpha for the image: 0 is transparent, 255 fully opaque
final byte alpha = (byte) 255;
// Get each pixel, one at a time
for (int y = 0; y < imageHeight; y++) {
for (int x = 0; x < imageWidth; x++) {
// Get the Y value, stored in the first block of data
// The logical "AND 0xff" is needed to deal with the signed issue
int Y = data[y*imageWidth + x] & 0xff;
// Get U and V values, stored after Y values, one per 2x2 block
// of pixels, interleaved. Prepare them as floats with correct range
// ready for calculation later.
int xby2 = x/2;
int yby2 = y/2;
// make this V for NV12/420SP
float U = (float)(data[numPixels + 2*xby2 + yby2*imageWidth] & 0xff) - 128.0f;
// make this U for NV12/420SP
float V = (float)(data[numPixels + 2*xby2 + 1 + yby2*imageWidth] & 0xff) - 128.0f;
// Do the YUV -> RGB conversion
float Yf = 1.164f*((float)Y) - 16.0f;
int R = (int)(Yf + 1.596f*V);
int G = (int)(Yf - 0.813f*V - 0.391f*U);
int B = (int)(Yf + 2.018f*U);
// Clip rgb values to 0-255
R = R < 0 ? 0 : R > 255 ? 255 : R;
G = G < 0 ? 0 : G > 255 ? 255 : G;
B = B < 0 ? 0 : B > 255 ? 255 : B;
// Put that pixel in the buffer
intBuffer.put(alpha*16777216 + R*65536 + G*256 + B);
}
}
// Get buffer ready to be read
intBuffer.flip();
// Push the pixel information from the buffer onto the bitmap.
bitmap.copyPixelsFromBuffer(intBuffer);
正如@Timmmm指出的那样,你可以通过将缩放因子乘以1000(即1.164变为1164)然后将最终结果乘以1000来进行int转换。
答案 1 :(得分:17)
为什么不指定相机预览应提供RGB图像?
答案 2 :(得分:5)
经过对三星S4迷你快速代码的一些测试(比Neil的[浮动!]快120%,比原来的Hitesh快30%):
static public void decodeYUV420SP(int[] rgba, byte[] yuv420sp, int width,
int height) {
final int frameSize = width * height;
// define variables before loops (+ 20-30% faster algorithm o0`)
int r, g, b, y1192, y, i, uvp, u, v;
for (int j = 0, yp = 0; j < height; j++) {
uvp = frameSize + (j >> 1) * width;
u = 0;
v = 0;
for (i = 0; i < width; i++, yp++) {
y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0)
y = 0;
if ((i & 1) == 0) {
v = (0xff & yuv420sp[uvp++]) - 128;
u = (0xff & yuv420sp[uvp++]) - 128;
}
y1192 = 1192 * y;
r = (y1192 + 1634 * v);
g = (y1192 - 833 * v - 400 * u);
b = (y1192 + 2066 * u);
// Java's functions are faster then 'IFs'
r = Math.max(0, Math.min(r, 262143));
g = Math.max(0, Math.min(g, 262143));
b = Math.max(0, Math.min(b, 262143));
// rgb[yp] = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) &
// 0xff00) | ((b >> 10) & 0xff);
// rgba, divide 2^10 ( >> 10)
rgba[yp] = ((r << 14) & 0xff000000) | ((g << 6) & 0xff0000)
| ((b >> 2) | 0xff00);
}
}
}
速度与 YuvImage.compressToJpeg()相当,ByteArrayOutputStream为输出(640x480图像为30-50 ms)。
结果:三星S4 mini(2x1.7GHz)无法压缩为JPEG /实时将YUV转换为RGB(640x480 @ 30fps)
答案 3 :(得分:4)
Java实现比c版本慢10倍,我建议您使用GPUImage库或只移动这部分代码。
有一个Android版的GPUImage: https://github.com/CyberAgent/android-gpuimage
如果使用gradle,则可以包含此库,并调用方法: GPUImageNativeLibrary.YUVtoRBGA(inputArray,WIDTH,HEIGHT,outputArray);
我比较时间,对于NV21图像为960x540,使用上面的java代码,它花费200ms +,使用GPUImage版本,只需10ms~20ms。
答案 4 :(得分:1)
修复上面的代码段
static public void decodeYUV420SP(int[] rgba, byte[] yuv420sp, int width,
int height) {
final int frameSize = width * height;
int r, g, b, y1192, y, i, uvp, u, v;
for (int j = 0, yp = 0; j < height; j++) {
uvp = frameSize + (j >> 1) * width;
u = 0;
v = 0;
for (i = 0; i < width; i++, yp++) {
y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0)
y = 0;
if ((i & 1) == 0) {
// above answer is wrong at the following lines. just swap ***u*** and ***v***
u = (0xff & yuv420sp[uvp++]) - 128;
v = (0xff & yuv420sp[uvp++]) - 128;
}
y1192 = 1192 * y;
r = (y1192 + 1634 * v);
g = (y1192 - 833 * v - 400 * u);
b = (y1192 + 2066 * u);
r = Math.max(0, Math.min(r, 262143));
g = Math.max(0, Math.min(g, 262143));
b = Math.max(0, Math.min(b, 262143));
// combine ARGB
rgba[yp] = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) & 0xff00)
| ((b >> 10) | 0xff);
}
}
}
答案 5 :(得分:1)
尝试使用JellyBean 4.2(Api 17 +)附带的RenderScript ScriptIntrinsicYuvToRGB。
https://developer.android.com/reference/android/renderscript/ScriptIntrinsicYuvToRGB.html
在Nexus 7(2013,JellyBean 4.3)上,1920x1080图像转换(全高清摄像头预览)大约需要7毫秒。
答案 6 :(得分:1)
您可以使用RenderScript-> ScriptIntrinsicYuvToRGB
科特琳样品
val rs = RenderScript.create(CONTEXT_HERE)
val yuvToRgbIntrinsic = ScriptIntrinsicYuvToRGB.create(rs, Element.U8_4(rs))
val yuvType = Type.Builder(rs, Element.U8(rs)).setX(byteArray.size)
val inData = Allocation.createTyped(rs, yuvType.create(), Allocation.USAGE_SCRIPT)
val rgbaType = Type.Builder(rs, Element.RGBA_8888(rs)).setX(width).setY(height)
val outData = Allocation.createTyped(rs, rgbaType.create(), Allocation.USAGE_SCRIPT)
inData.copyFrom(byteArray)
yuvToRgbIntrinsic.setInput(inData)
yuvToRgbIntrinsic.forEach(outData)
val bitmap = Bitmap.createBitmap(width, height, Bitmap.Config.ARGB_8888)
outData.copyTo(bitmap)
答案 7 :(得分:0)
您可以直接从TextureView获取位图。真的非常快。
Bitmap bitmap = textureview.getBitmap()
答案 8 :(得分:0)
在阅读了许多建议的链接、文章等之后,我发现了以下出色的 Android 示例应用程序,它从相机捕获 YUV 图像并将其转换为 RGB 位图:
https://github.com/android/camera-samples/tree/main/CameraXTfLite
这方面的好处:
切换到此代码后(尤其是 YUV 到 RGB 转换部分),我的帧率翻了一番!我的整体速度还没有达到 30 FPS,因为我在拍摄图像后做了更多的事情,但速度提升非常显着!