如何使用静态YUV帧覆盖onPreviewFrame数据?

时间:2014-03-28 13:03:08

标签: android image-processing android-camera webrtc yuv

我的应用程序会覆盖onPreviewFrame回调,将当前相机帧传递给webrtc本机函数。这非常有效,但是如果在我的应用中选择了该选项,我希望能够切换到发送静态帧而不是视频。

到目前为止,我已经创建了一个YUV NV21图像,我将其存储在资产目录中。所有尝试将该帧传递给本机函数都会导致紫色/绿色条纹而不是实际图像。

这是我到目前为止所拥有的;

@Override
public void onPreviewFrame(byte[] data, Camera camera) {
    previewBufferLock.lock();

    if (mFrameProvider.isEnabled()) {
         mFrameProvider.overwriteWithFrame(data, expectedFrameSize);
    }

    if (isCaptureRunning) {
        if (data.length == expectedFrameSize) {
             ProvideCameraFrame(data, expectedFrameSize, context);
             cameraUtils.addCallbackBuffer(camera, data);
        }
    }
    previewBufferLock.unlock();
}


@Override
public byte[] overwriteWithPreviewFrame(byte[] data, int expectedFrameSize) {
   if (mFrameData == null) {
       loadPreviewFrame();
   }

   for (int i=0; i < expectedFrameSize; i++) {
        if (i < mFrameData.length) {
        data[i] = mFrameData[i];
        }
   }

   return data;
}

private void loadPreviewFrame() {
    try {
        InputStream open = mContext.getResources().getAssets().open(PREVIEW_FRAME_FILE);

        mFrameData = IOUtils.toByteArray(open);
        open.close();
    } catch (Exception e) {
        Log.e("", "", e);
    }
}

我也试过将图像转换为位图。所以问题是如何从资产中打开YUV框架并将其转换为合适的格式以传递给本机方法。

以下输出结果;

enter image description here

1 个答案:

答案 0 :(得分:2)

在与Android API长期斗争之后,我已经成功实现了这一目标。

有两个问题导致绿色/紫色输出;

数据丢失:生成的YUV帧在相同分辨率下大于原始预览帧,因此传递给本机代码的数据大约缺失了30%的图像数据。

错误的分辨率:原生代码需要预览帧的分辨率,而不是相机。

以下是任何希望添加静态框架的人的工作解决方案;

如此更新的代码:

@Override
public byte[] getPreviewFrameData(int width, int height) {
    if (mPreviewFrameData == null) {
        loadPreviewFrame(width, height);
    }

    return mPreviewFrameData;
}

private void loadPreviewFrame(int width, int height) {
    try {
        Bitmap previewImage = BitmapFactory.decodeResource(mContext.getResources(), R.drawable.frame);
        Bitmap resizedPreviewImage = Bitmap.createScaledBitmap(previewImage, width, height, false);

        BitmapConverter bitmapConverter = new BitmapConverter();
        mPreviewFrameData = bitmapConverter.convertToNV21(resizedPreviewImage);
    } catch (Exception e) {
        Log.e("DisabledCameraFrameProvider", "Failed to loadPreviewFrame");
    }
}

class BitmapConverter {
    byte [] convertToNV21(Bitmap bitmap) {
        int inputWidth = bitmap.getWidth();
        int inputHeight = bitmap.getHeight();

        int [] argb = new int[inputWidth * inputHeight];

        bitmap.getPixels(argb, 0, inputWidth, 0, 0, inputWidth, inputHeight);

        byte [] yuv = new byte[inputWidth*inputHeight*3/2];
        encodeYUV420SP(yuv, argb, inputWidth, inputHeight);

        bitmap.recycle();

        return yuv;
    }

    void encodeYUV420SP(byte[] yuv420sp, int[] argb, int width, int height) {
        final int frameSize = width * height;

        int yIndex = 0;
        int uvIndex = frameSize;

        int R, G, B, Y, U, V;
        int index = 0;
        for (int j = 0; j < height; j++) {
            for (int i = 0; i < width; i++) {
                R = (argb[index] & 0xff0000) >> 16;
                G = (argb[index] & 0xff00) >> 8;
                B = (argb[index] & 0xff);

                Y = ( (  66 * R + 129 * G +  25 * B + 128) >> 8) +  16;
                U = ( ( -38 * R -  74 * G + 112 * B + 128) >> 8) + 128;
                V = ( ( 112 * R -  94 * G -  18 * B + 128) >> 8) + 128;

                yuv420sp[yIndex++] = (byte) ((Y < 0) ? 0 : ((Y > 255) ? 255 : Y));
                if (j % 2 == 0 && index % 2 == 0) {
                    yuv420sp[uvIndex++] = (byte)((V<0) ? 0 : ((V > 255) ? 255 : V));
                    yuv420sp[uvIndex++] = (byte)((U<0) ? 0 : ((U > 255) ? 255 : U));
                }

                index ++;
            }
        }
    }
}

然后最后在你的回调中;

public void onPreviewFrame(byte[] data, Camera camera) {

     byte[] bytes = data;

     if (!mProvider.isVideoEnabled()) {
         Camera.Size previewSize = camera.getParameters().getPreviewSize();
         bytes = mProvider.getPreviewFrameData(previewSize.width, previewSize.height);
     }

     ProvideCameraFrame(bytes, bytes.length, context);
}

关键是将图像缩放到相机预览尺寸并将图像转换为YUV颜色空间。