Apple Vision Framework:通过观察检测微笑或幸福的面孔?

时间:2017-12-02 01:41:01

标签: macos frameworks coreml apple-vision

我正在开发一个项目,该项目使用Vision Framework来检测图像中的面部,然后使用CoreML模型来检测面部是否在微笑。问题是CoreML模型文件接近500 MB。我不想那么膨胀我的应用程序。

由于我已经从Vision框架获取了VNFaceLandmarks2D观察数据,我想我会尝试使用它来检测微笑。

是否有人试图使用Vision框架中的VNFaceLandmarks2D数据来确定脸部是否开心或微笑?

如果是这样,你是怎么做到的,它的效果如何?

谢谢!

2 个答案:

答案 0 :(得分:2)

一种解决方案是使用较小的Core ML模型文件。听起来你正在使用基于VGGNet的模型。有几个更小的模型架构(4到16 MB之间)与VGGNet具有相同的精度,因此更适合在移动设备上使用。

答案 1 :(得分:0)

这更好,更小,更快,更有趣:

通过CIFaceFeature检测,您可以检测出眼睛和笑容。 https://developer.apple.com/documentation/coreimage/cifacefeature