Apple Vision Framework识别面部

时间:2018-05-23 13:45:49

标签: apple-vision

Apple Vision Framework中是否可以比较面部并识别该人是否在该人物的参考图像中??

Facebook脸部识别之类的东西。

托马斯

2 个答案:

答案 0 :(得分:0)

来自Vision Framework文档:

  

视觉框架执行面部和面部界标检测,文本   检测,条形码识别,图像配准和常规   功能跟踪。 Vision还允许使用自定义Core ML模型   用于分类或对象检测之类的任务。

因此,不,Vision Framework不提供面部识别,仅提供面部检测。

有一些方法可以识别人脸。这是AR应用程序中人脸识别的示例: https://github.com/NovatecConsulting/FaceRecognition-in-ARKit

他们训练了一个可以检测100个人的模型,但是您必须为要识别的每个新人重新训练它。不幸的是,您不能只给出两个图像并进行人脸比较。

答案 1 :(得分:0)

根据Face Detection vs Face Recognition文章:

人脸检测仅表示系统能够识别图像或视频中是否存在人脸。例如,人脸检测可用于自动对焦相机功能。

面部识别描述了一种生物识别技术,它远远超出了仅检测到人脸的方式。实际上,它试图确定自己是谁。


但是...

在需要使用增强现实应用程序的情况下,例如Facebook的FaceApp,答案是:

是的,您可以使用ARKit创建类似于FaceApp的应用。

因为您只需要一种简单的人脸识别形式,即可通过ARKit或RealityKit框架进行访问。您甚至不需要像使用Vision和CoreML框架那样创建.mlmodel

您所需要的只是一台带有前置摄像头的设备,使您可以使用ARKit 3.0或RealityKit 1.0一次检测最多三张脸。查看following Swift code,如何在检测到脸部后获得ARFaceAnchor

此外,如果您想使用参考图像进行简单的面部检测–您需要在Xcode的.arresourcegroup文件夹中放置几张参考图像,并使用following Swift code作为附加条件来获得{{1} }(在检测到的图像的中心)。