我目前正在Apple的Core Image框架中探索面部检测功能。
现在,我正在玩Apple的样本项目,该项目将红色方块放在人脸上。 (https://developer.apple.com/library/ios/samplecode/SquareCam/Introduction/Intro.html)
我遇到的问题是每次都会检测到脸部检测,因此即使我不移动脸,红色方块的大小也会疯狂变化。
我承认以下方法可以进行面部检测。
NSArray* features = [detector featuresInImage:image];
我可以用以下循环中的眼睛,嘴巴位置进行操作:
for(CIFaceFeature* feature in features)
{
}
有什么办法可以让红色方块(脸部区域)随着时间的推移变得平滑吗?换句话说,如果人的脸没有移动,我想尽量减少红色方块大小的变化。
P.S。我可以在Swift中获得答案。以上方法在Obj-C中,因为我是从旧项目中获得的。
答案 0 :(得分:1)
您可以保存返回的框架,并在新的返回框架不接近您保存的框架时更新它们 此外,您可以绘制更大的帧,并更新它们返回的帧超出您的帧。