dlib如何从对齐的脸部获得128D矢量?有参考文件吗?

时间:2018-05-30 03:18:52

标签: face-recognition dlib

我使用dlibface_recognition 进行人脸识别。

在检测到图像中的脸部后,然后对齐脸部,然后从脸部地标(5或64点)获取128个矢量?

但dlib如何获得128矢量?我看到了dilb code get 128 vector,但我不知道网的含义是什么,有什么参考吗?

2 个答案:

答案 0 :(得分:1)

阅读FaceNet:面部识别和聚类的统一嵌入可能会让你很好地了解dlib和其他人如何生成面部嵌入以便以后进行分类,聚类等等。

https://www.cv-foundation.org/openaccess/content_cvpr_2015/app/1A_089.pdf

答案 1 :(得分:0)

这是常规的CNN模型。 Dlib在后台构建ResNet模型。它类似于分类任务中的预测。

#!pip install deepface
from deepface import DeepFace
models = ['VGG-Face', 'Facenet', 'OpenFace', 'DeepFace', 'DeepID', 'Dlib']
DeepFace.verify("img1.jpg", "img2.jpg", model_name = models[0])

验证功能运行img1.jpg和img2.jpg的预测。实际上,它会将这些图像的像素作为CNN模型的输入。 Here,您可以看到模型结构。除dlib以外的所有模型都是keras模型。易于阅读和理解。例如,VGGFace.py的baseModel函数返回CNN模型。