如何减少iOS应用的Core ML模型?

时间:2018-10-25 22:21:38

标签: ios react-native machine-learning coreml mlmodel

我有一个差不多500 mb的模型,客户希望在其iOS应用程序中实现。在世界上如何实施这样的模型,它的大小如何?它似乎是一个相当流行的模型,但是在移动应用程序中实际使用该模型的任何人都没有文档或帖子。是否存在将模型托管在某个地方并将客户端指向托管模型的服务器之类的事情?有压缩模型的选项吗?很想听听您为解决此问题所做的事情。

可以在这里找到模型:https://coreml.store/cnnemotions

1 个答案:

答案 0 :(得分:1)

在深度学习/计算机视觉方面进行学术研究的人们经常使用VGG16或VGG19作为其基本模型,因为它简单易用。不幸的是,它还有超过1亿个参数,使其不适合在移动设备上使用。

这里的解决方案是使用较小的特征提取器(例如MobileNet或SqueezeNet)重新构建模型,然后再次进行训练。现在,您将得到一个较小的模型,介于10到20 MB之间。

这确实意味着您不能仅仅从Internet上获取模型并将其转换为Core ML并期望它们能很好地工作。比这需要更多的工作!