大家好,我正在尝试为视频监控应用实施人脸识别系统。 在这种情况下,测试图像是低质量的,从图像到另一个的照明变化,而且,检测到的对象并不总是处于相同的姿势。
作为第一识别者,我使用FisherFaces,并且使用49张测试图像,我获得了35/49的准确度,而没有考虑每个分类主题的距离(我只考虑标签)。为了获得更好的准确性,我尝试对训练图像和测试图像进行预处理;我选择的预处理在“掌握OpenCV与实际计算机视觉项目”一书中有所描述。步骤是:
嗯,通过这种类型的预处理,我获得了比之前更差的结果(4/49个受试者正确分类)。因此,我想使用另一种分类器LBPH识别器来提高识别的准确性,因为这两种算法具有不同的特征和不同的方式来分类面部;如果一起使用它们可能会提高准确性。 所以我的问题是关于结合这两种算法的方法;有谁知道如何合并两个输出,以获得更好的准确性?我想到了这一点:如果FisherFaces和LBPH给出相同的结果(相同的标签),那么就没有问题;否则,如果他们不同意我的想法是采取标签的矢量和每个算法的距离矢量,并为每个主题总和相应的距离;此时,测试图像的标签是具有最短距离的标签。 这只是我的想法,但还有其他方法来融合两种算法的输出,因为我应该在OpenCV中更改face模块的预测函数的代码,因为它返回int类型而不是int的向量。