Apple Vision Framework中是否可以比较面部并识别该人是否在该人物的参考图像中??
Facebook脸部识别之类的东西。
托马斯
答案 0 :(得分:0)
来自Vision Framework文档:
视觉框架执行面部和面部界标检测,文本 检测,条形码识别,图像配准和常规 功能跟踪。 Vision还允许使用自定义Core ML模型 用于分类或对象检测之类的任务。
因此,不,Vision Framework不提供面部识别,仅提供面部检测。
有一些方法可以识别人脸。这是AR应用程序中人脸识别的示例: https://github.com/NovatecConsulting/FaceRecognition-in-ARKit
他们训练了一个可以检测100个人的模型,但是您必须为要识别的每个新人重新训练它。不幸的是,您不能只给出两个图像并进行人脸比较。
答案 1 :(得分:0)
根据Face Detection vs Face Recognition文章:
人脸检测仅表示系统能够识别图像或视频中是否存在人脸。例如,人脸检测可用于自动对焦相机功能。
面部识别描述了一种生物识别技术,它远远超出了仅检测到人脸的方式。实际上,它试图确定自己是谁。
在需要使用增强现实应用程序的情况下,例如Facebook的FaceApp
,答案是:
FaceApp
的应用。因为您只需要一种简单的人脸识别形式,即可通过ARKit或RealityKit框架进行访问。您甚至不需要像使用Vision和CoreML框架那样创建.mlmodel
。
您所需要的只是一台带有前置摄像头的设备,使您可以使用ARKit 3.0或RealityKit 1.0一次检测最多三张脸。查看following Swift code,如何在检测到脸部后获得ARFaceAnchor
。
此外,如果您想使用参考图像进行简单的面部检测–您需要在Xcode的.arresourcegroup
文件夹中放置几张参考图像,并使用following Swift code作为附加条件来获得{{1} }(在检测到的图像的中心)。