如何识别iOS上脸部的嘴和牙齿?

时间:2012-03-29 11:23:01

标签: iphone ios core-image

我知道iOS 5.0上的核心图像supports facial detectionanother example of this),它提供了脸部的整体位置,以及眼睛和嘴巴在该脸部内的位置。

但是,我想改进这个位置,以检测其中的嘴和牙齿的位置。我的目标是在用户的嘴和牙齿上放一个护齿器。

有没有办法在iOS上实现这一目标?

1 个答案:

答案 0 :(得分:9)

我在my blog中指出教程有问题。

声部 5)调整坐标系:说您需要更改窗口和图像的坐标,但这是您不应该做的。您不应该像在教程中那样更改视图/窗口(在UIKit坐标中)以匹配CoreImage坐标,您应该采取相反的方式。

这是与此相关的代码部分:
(您可以从my blog post或直接从here获取完整的示例代码。它包含此示例以及使用CIFilters的其他示例:D)

// Create the image and detector
CIImage *image = [CIImage imageWithCGImage:imageView.image.CGImage];
CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeFace 
                                          context:...
                                          options:...];

// CoreImage coordinate system origin is at the bottom left corner and UIKit's
// is at the top left corner. So we need to translate features positions before
// drawing them to screen. In order to do so we make an affine transform
CGAffineTransform transform = CGAffineTransformMakeScale(1, -1);
transform = CGAffineTransformTranslate(transform,
                                       0, -imageView.bounds.size.height);

// Get features from the image
NSArray *features = [detector featuresInImage:image];
for(CIFaceFeature* faceFeature in features) {

    // Get the face rect: Convert CoreImage to UIKit coordinates
    const CGRect faceRect = CGRectApplyAffineTransform(
                              faceFeature.bounds, transform);

    // create a UIView using the bounds of the face
    UIView *faceView = [[UIView alloc] initWithFrame:faceRect];

    ...

    if(faceFeature.hasMouthPosition) {
        // Get the mouth position translated to imageView UIKit coordinates
        const CGPoint mouthPos = CGPointApplyAffineTransform(
                                   faceFeature.mouthPosition, transform);
        ...
    }
}

一旦你得到嘴巴位置(mouthPos),你只需将你的东西放在它上面或附近。

这个特定距离可以通过实验计算,并且必须相对于眼睛和嘴巴形成的三角形。如果可能的话,我会用很多面孔计算这个距离(推特头像?)

希望有所帮助:)