Facenet是面部识别的深度学习模型。它被训练用于提取特征,即通过称为嵌入的固定长度矢量来表示图像。训练之后,对于每个给定的图像,我们将第二个最后一层的输出作为其特征向量。此后,我们可以根据特征和一些距离函数(例如欧几里德距离)进行验证(判断两幅图像是否是同一个人)。
三重态损失是一种损失函数,基本上说,同一个人的特征向量之间的距离应该很小,不同人之间的距离应该很大。
我的问题是,有没有办法混合不同Convolutional模型的不同嵌入集?例如,具有三重损失的列车3不同模型(Resnet模型,初始模型和VGG)然后混合3个128维嵌入以构建新的元嵌入以获得更好的面部验证准确性。如何混合这种嵌入设置?
答案 0 :(得分:0)
有一个相同的问题和有用的答案here。
我认为有不同的方法可以做到这一点,例如1)连接 两个嵌入并应用PCA之后2)规范化每个 将它们嵌入并连接在一起,以便每个模型都可以 对最终结果做出同等贡献3)规范化每个特征 每个嵌入到(0,1)由高斯CDF说并连接它们 在一起,以便每个功能对结果的贡献相同。