识别在iOS Swift中是谁的面孔

时间:2019-06-19 09:35:14

标签: ios swift face-recognition

我正在尝试研究面部识别。但是,在iOS Swift语言中,不仅要“识别视频中有面部特征”,而且要“识别出谁的面部”。到目前为止,我在互联网上获得的与此相关的资源仅是检测,而不是真正的面部识别(我怀疑必须有某种机器学习训练和数据库来存储所有这些训练结果,以便将来识别),例如{ 3}},或者使用tutorial这个有关人脸特征的工具,但没有一个具有机器学习功能。 tutorial讨论了机器学习框架OpenML,但没有任何细节。

我确实找到了关于tutorial的有关使用本地二进制模式直方图的面部识别的信息,尽管识别部分很短,但是它没有说明数据模型的存储位置或是否可以发送将“训练数据”发送到服务器,以与服务器中已有的训练数据集成。还有关于OpenCV的谣言是C ++原生的,只能在Objective C ++中实现,而不能在Swift上实现吗?

要拥有一个集中的面部识别数据库(设备可以通过该数据库进行培训来识别面部,将结果上传到服务器,然后其他设备可以使用该信息来较早地识别面部),我怀疑培训是在客户端(iOS),但识别是在服务器端完成的(设备检测到一张脸,将该脸的裁剪图像上传到服务器,然后服务器对该图像进行脸部识别)。那是对的吗?还是将所有服务器培训数据下载到设备,然后使用它来在客户端上进行人脸识别,是否更有可能且更实际?还是所有的培训和认可工作都在服务器上完成?

这一切都在我的脑海中,但是我实际上不知道从哪里开始寻找我的用例。我觉得必须训练和存储模型并进行所有识别的是服务器,客户端只发送检测到的人脸。

1 个答案:

答案 0 :(得分:0)

如果我理解正确,那么您所说的就是您正在寻找FaceID。不幸的是,Apple仅将此功能提供给开发人员,以此作为对用户进行身份验证而不是识别人脸的一种手段。您可以做的就是在应用程序中拍摄一张脸部照片;使用Apple的CoreML框架创建机器学习模型,并训练模型以识别面孔。但是,这样做的问题是,您必须虚拟训练每个面孔的模型,这是不可能的。如果您热衷于此,则可以编写自己的人脸识别算法,并使用模型来分析所拍摄的照片。为此,您需要大量的数据。

编辑

浏览以下链接。也许他们可以帮忙。

https://gorillalogic.com/blog/how-to-build-a-face-recognition-app-in-ios-using-coreml-and-turi-create-part-1/

https://blog.usejournal.com/humanizing-your-ios-application-with-face-detection-api-kairos-60f64d4b68f7

但是请记住,这些将不像FaceID那样安全。他们很容易被欺骗。