我使用dlib和face_recognition 进行人脸识别。
在检测到图像中的脸部后,然后对齐脸部,然后从脸部地标(5或64点)获取128个矢量?
但dlib如何获得128矢量?我看到了dilb code get 128 vector,但我不知道网的含义是什么,有什么参考吗?
答案 0 :(得分:1)
阅读FaceNet:面部识别和聚类的统一嵌入可能会让你很好地了解dlib和其他人如何生成面部嵌入以便以后进行分类,聚类等等。
https://www.cv-foundation.org/openaccess/content_cvpr_2015/app/1A_089.pdf
答案 1 :(得分:0)
这是常规的CNN模型。 Dlib在后台构建ResNet模型。它类似于分类任务中的预测。
#!pip install deepface
from deepface import DeepFace
models = ['VGG-Face', 'Facenet', 'OpenFace', 'DeepFace', 'DeepID', 'Dlib']
DeepFace.verify("img1.jpg", "img2.jpg", model_name = models[0])
验证功能运行img1.jpg和img2.jpg的预测。实际上,它会将这些图像的像素作为CNN模型的输入。 Here,您可以看到模型结构。除dlib以外的所有模型都是keras模型。易于阅读和理解。例如,VGGFace.py的baseModel函数返回CNN模型。