我想使用视觉API提供的新面部检测功能以及应用程序中的其他帧处理。为此,我需要访问由面部检测器处理的相机框架,并使用面部检测数据连接处理器。
正如我在示例中看到的那样,CameraSource抽象了检测和摄像头访问,我无法访问正在处理的帧。是否有如何在此API中获取相机框架的示例,或者,可能创建并连接接收它的检测器?这至少可能吗?
谢谢, 卢西奥
答案 0 :(得分:21)
是的,有可能。您需要创建自己的Detector子类,它包装FaceDetector并在detect方法中执行额外的帧处理代码。它看起来像这样:
class MyFaceDetector extends Detector<Face> {
private Detector<Face> mDelegate;
MyFaceDetector(Detector<Face> delegate) {
mDelegate = delegate;
}
public SparseArray<Face> detect(Frame frame) {
// *** add your custom frame processing code here
return mDelegate.detect(frame);
}
public boolean isOperational() {
return mDelegate.isOperational();
}
public boolean setFocus(int id) {
return mDelegate.setFocus(id);
}
}
你将你的课程包裹在脸部探测器上,并将你的课程传递到相机源。它看起来像这样:
FaceDetector faceDetector = new FaceDetector.Builder(context)
.build();
MyFaceDetector myFaceDetector = new MyFaceDetector(faceDetector);
myFaceDetector.setProcessor(/* include your processor here */);
mCameraSource = new CameraSource.Builder(context, myFaceDetector)
.build();
首先使用原始帧数据调用您的探测器。
请注意,如果旋转设备,图像可能不是直立的。您可以通过框架的metadata.getRotation方法获取方向。
提醒一句:一旦检测方法返回,就不应该访问帧像素数据。由于相机源会回收图像缓冲区,因此一旦方法返回,帧对象的内容最终将被覆盖。
编辑:(附加说明)
您还可以使用MultiDetector来避免使用MyFaceDetector
的样板代码:
MultiDetector multiDetector = new MultiDetector.Builder()
.add(new FaceDetector.Builder(context)
.build())
.add(new YourReallyOwnDetector())
.build();
另请注意FaceTrackerFactory
与MultiProcessor
的结合使用
在那里描述。
答案 1 :(得分:17)
这是我确定的最终解决方案。它假定框在屏幕上居中。
public class BoxDetector extends Detector {
private Detector mDelegate;
private int mBoxWidth, mBoxHeight;
public BoxDetector(Detector delegate, int boxWidth, int boxHeight) {
mDelegate = delegate;
mBoxWidth = boxWidth;
mBoxHeight = boxHeight;
}
public SparseArray detect(Frame frame) {
int width = frame.getMetadata().getWidth();
int height = frame.getMetadata().getHeight();
int right = (width / 2) + (mBoxHeight / 2);
int left = (width / 2) - (mBoxHeight / 2);
int bottom = (height / 2) + (mBoxWidth / 2);
int top = (height / 2) - (mBoxWidth / 2);
YuvImage yuvImage = new YuvImage(frame.getGrayscaleImageData().array(), ImageFormat.NV21, width, height, null);
ByteArrayOutputStream byteArrayOutputStream = new ByteArrayOutputStream();
yuvImage.compressToJpeg(new Rect(left, top, right, bottom), 100, byteArrayOutputStream);
byte[] jpegArray = byteArrayOutputStream.toByteArray();
Bitmap bitmap = BitmapFactory.decodeByteArray(jpegArray, 0, jpegArray.length);
Frame croppedFrame =
new Frame.Builder()
.setBitmap(bitmap)
.setRotation(frame.getMetadata().getRotation())
.build();
return mDelegate.detect(croppedFrame);
}
public boolean isOperational() {
return mDelegate.isOperational();
}
public boolean setFocus(int id) {
return mDelegate.setFocus(id);
}
}
将此类包含在您的探测器中
BarcodeDetector barcodeDetector = new BarcodeDetector.Builder(context).build();
BoxDetector boxDetector = new BoxDetector(barcodeDetector, heightPx, widthPx);
答案 2 :(得分:0)
根据用户(新开发者)的要求,如何设置盒子检测器。您可以这样使用
使用@MCR
BoxDetector类,然后按照以下步骤操作。
我只是举例说明文本识别器,因此您可以这样设置
TextRecognizer mTextRecognizer = new TextRecognizer.Builder(getApplicationContext()).build();
BoxDetector boxDetector = new BoxDetector(mTextRecognizer, heightPx, widthPx);
在此处设置boxDetecotr
boxDetector.setProcessor(new Detector.Processor<TextBlock>() {
@Override
public void release() {
}
@Override
public void receiveDetections(Detector.Detections<TextBlock> detections) {
SparseArray<TextBlock> items = detections.getDetectedItems();
StringBuilder stringBuilder = new StringBuilder();
for (int i = 0; i < items.size(); ++i) {
TextBlock item = items.valueAt(i);
if (item != null && item.getValue() != null) {
stringBuilder.append(item.getValue() + " ");
}
}
final String fullText = stringBuilder.toString();
Handler handler = new Handler(Looper.getMainLooper());
handler.post(new Runnable() {
public void run() {
// here full string(fullText) you can get whatever is it scanned.
}
});
}
});