目前,我们的应用程序正在成功运行Snapdragon SDK。我们正在尝试在我们的项目中实现Vision 8.3.0中的FaceDetector,以增加兼容设备的数量。我们不能使用CameraSource,因为我们依靠自定义相机+表面来提供某些功能。我们希望尽可能多地重用代码,Snapdragon SDK在我们当前的实现方面做得非常好。
工作流程如下:
1)检索相机预览
2)将传入的字节数组转换为位图(由于某种原因,我们还没有设法使用ByteBuffers。提供并验证了图像大小,旋转和NV21图像格式,但没有找到面部)。 Bitmap是一个已在处理线程内部初始化的全局变量,以避免分配速度减慢。
3)通过receiveFrame进料检测器
到目前为止的结果还不够好。即使我们已禁用地标和分类,检测速度太慢(2-3秒)且不准确。
问题是:是否可以在不使用前者的情况下复制CameraSource + Detector性能?是否必须使用CameraSource使其与实时输入一起使用?
提前致谢!
按照下面的pm0733464建议,我正在尝试使用ByteBuffer而不是Bitmap。这是我遵循的步骤:
// Initialize variables
// Mat is part of opencvSDK
Mat currentFrame = new Mat(cameraPreviewHeight + cameraPreviewHeight / 2, cameraPreviewWidth, CvType.CV_8UC1);
Mat yuvMat = new Mat(cameraPreviewHeight + cameraPreviewHeight / 2, cameraPreviewWidth, CvType.CV_8UC1);
// Load current frame
yuvMat.put(0, 0, data);
// Convert the frame to gray for better processing
Imgproc.cvtColor(yuvMat, currentFrame, Imgproc.COLOR_YUV420sp2RGB);
Imgproc.cvtColor(currentFrame, currentFrame, Imgproc.COLOR_BGR2GRAY);
从这里开始,字节数组创建:
// Initialize grayscale byte array
byte[] grayscaleBytes = new byte[data.length];
// Extract grayscale data
currentFrame.get(0, 0, grayscaleBytes);
// Allocate ByteBuffer
ByteBuffer buffer = ByteBuffer.allocateDirect(grayscaleBytes.length);
// Wrap grayscale byte array
buffer.wrap(grayscaleBytes);
// Create frame
// rotation is calculated before
Frame currentGoogleFrame = new Frame.Builder().setImageData(buffer, currentFrame.cols(), currentFrame.rows(), ImageFormat.NV21).setRotation(rotation).build();
以这种方式构造框架会导致找不到面孔。但是,使用位图可以按预期工作:
if(bitmap == null) {
// Bitmap allocation
bitmap = Bitmap.createBitmap(currentFrame.cols(), currentFrame.rows(), Bitmap.Config.ARGB_8888);
}
// Copy grayscale contents
org.opencv.android.Utils.matToBitmap(currentFrame, bitmap);
// Scale down to improve performance
Matrix scaleMatrix = new Matrix();
scaleMatrix.postScale(scaleFactor, scaleFactor);
// Recycle before creating scaleBitmap
if(scaledBitmap != null) {
scaledBitmap.recycle();
}
// Generate scaled bitmap
scaledBitmap = Bitmap.createBitmap(bitmap, 0, 0, bitmap.getWidth(), bitmap.getHeight(), rotationMatrix, true);
// Create frame
// The same rotation as before is still used
if(scaledBitmap != null) {
Frame currentGoogleFrame = new Frame.Builder().setBitmap(scaledBitmap).setRotation(rotation).build();
}
答案 0 :(得分:3)
检测需要2-3秒是不典型的。使用CameraSource无需获得最佳性能您使用的是哪些硬件?你能提供更多细节吗?
人脸检测的某些方面是速度与准确度之间的权衡。
<强>速度强>
如果可能,请尝试使用较低分辨率的图像。例如,人脸检测应该可以在640x480下正常工作。面部检测器代码在运行检测之前会对大图像进行下采样,但与接收较低分辨率的原始图像相比,这需要额外的时间。
使用ByteBuffers而不是Bitmaps会更快一些。第一部分应该只是一个灰度图像(没有颜色信息)。
如上所述,禁用地标和分类会使其更快。
在将来的版本中,会有一个“最小脸大小”选项。将最小尺寸设置得更高可以使面部检测更快(在未检测到较小面部的精度权衡中)。
将模式设置为“快速”将使其更快(在未检测到非正面的精确权衡时)。
使用“仅限突出面”选项会更快,但它只会检测到一张大脸(至少是图像宽度的35%)。
<强>精度:强>
启用地标将允许更准确地计算姿势角。
将模式设置为“准确”将检测更宽角度范围的面(例如,轮廓中的面)。但是,这需要更多时间。
缺少上面提到的“最小脸部尺寸”选项,默认情况下只会检测到大于图像宽度10%的脸部。不会检测到较小的面孔。将来更改此设置将有助于检测较小的面部。但请注意,检测较小的面部需要更长的时间。
使用分辨率较高的图像比分辨率较低的图像更准确。例如,如果图像为640x480,则可能会错过320x240图像中的某些面部。您设置的“最小面部尺寸”越低,检测该尺寸面部所需的分辨率就越高。
确保旋转正确。例如,如果面部是颠倒的,则不会检测到面部。如果要检测倒置的脸,则应使用旋转的图像再次调用脸部检测器。
此外,如果您要创建大量位图,垃圾收集时间可能是一个因素。使用ByteBuffer的一个优点是,您可以重复使用相同的缓冲区,而不会产生每个图像GC开销,如果您使用每个图像的位图,则会遇到这种开销。 CameraSource具有这一优势,因为它只使用几个缓冲区。