我正在开发一个项目,该项目使用Vision Framework来检测图像中的面部,然后使用CoreML模型来检测面部是否在微笑。问题是CoreML模型文件接近500 MB。我不想那么膨胀我的应用程序。
由于我已经从Vision框架获取了VNFaceLandmarks2D观察数据,我想我会尝试使用它来检测微笑。
是否有人试图使用Vision框架中的VNFaceLandmarks2D数据来确定脸部是否开心或微笑?
如果是这样,你是怎么做到的,它的效果如何?
谢谢!
答案 0 :(得分:2)
一种解决方案是使用较小的Core ML模型文件。听起来你正在使用基于VGGNet的模型。有几个更小的模型架构(4到16 MB之间)与VGGNet具有相同的精度,因此更适合在移动设备上使用。
答案 1 :(得分:0)
这更好,更小,更快,更有趣:
通过CIFaceFeature检测,您可以检测出眼睛和笑容。 https://developer.apple.com/documentation/coreimage/cifacefeature