CoreImage面部检测每帧发生

时间:2015-12-05 04:15:55

标签: ios face-detection core-image

我目前正在Apple的Core Image框架中探索面部检测功能。

现在,我正在玩Apple的样本项目,该项目将红色方块放在人脸上。 (https://developer.apple.com/library/ios/samplecode/SquareCam/Introduction/Intro.html

我遇到的问题是每次都会检测到脸部检测,因此即使我不移动脸,红色方块的大小也会疯狂变化。

我承认以下方法可以进行面部检测。

NSArray* features = [detector featuresInImage:image];

我可以用以下循环中的眼睛,嘴巴位置进行操作:

for(CIFaceFeature* feature in features)
{

}

有什么办法可以让红色方块(脸部区域)随着时间的推移变得平滑吗?换句话说,如果人的脸没有移动,我想尽量减少红色方块大小的变化。

P.S。我可以在Swift中获得答案。以上方法在Obj-C中,因为我是从旧项目中获得的。

1 个答案:

答案 0 :(得分:1)

您可以保存返回的框架,并在新的返回框架不接近您保存的框架时更新它们 此外,您可以绘制更大的帧,并更新它们返回的帧超出您的帧。