CoreML 图像识别模型预测仅适用于 iPhone 11 和 12 模型

时间:2021-04-20 18:59:59

标签: ios coreml mlmodel

我在 Create ML 应用程序中创建了一个图像识别 .mlmodel 文件。我现在在 iOS 应用中使用它。

它适用于 iPhone 11 和 iPhone 12(以及相应型号),但不适用于 iPhone 8、iPhone 8 Plus 和 iPhone X。可能还有其他型号无法使用,但我可以确认这些型号远。

我使用的代码是:

do {
    let prediction = try self.model.prediction(image: pixelBuffer!)
} catch {
    print("\(error)")
}

在这不起作用的模型上,控制台打印的错误是:

Error Domain=com.apple.CoreML Code=1 "Predicted feature named 'classLabel' was not output by pipeline" UserInfo={NSLocalizedDescription=Predicted feature named 'classLabel' was not output by pipeline}

由于缺乏关于 CoreML 的文档,我无法找到有关此错误的可靠跟踪。 SO 上有一些随机帖子,Turicreate Github(Core ML 运行的底层 Python 库)上也有 Git 问题,但似乎没有直接回答这个问题。

任何帮助将不胜感激。谢谢!


根据这篇 Apple 开发者论坛帖子,使用 A7 处理器的设备与早于 A7 处理器的设备之间似乎存在一些差异。有没有可能它默默地失败了?

https://developer.apple.com/forums/thread/93105


在ML模型的输出类中,有几行代码如下:

lazy var classLabel: String = {
    [unowned self] in return self.provider.featureValue(for: "classLabel")!.stringValue
}()

这是在模拟器上构建时自动生成的文件,因此即使在文本编辑器中编辑文件也会在每次构建时被覆盖。我认为如果可能的话,输出模型的输出可能会有所帮助,以查看它实际返回的内容。


我已经追踪到这个函数:

open func prediction(from input: MLFeatureProvider, options: MLPredictionOptions) throws -> MLFeatureProvider

在 MLModel.h 中的 MLModel 类声明中。这是抛出错误的地方;到目前为止,我已经记录了所有输入数据,这是引发错误的函数,因此它来自框架本身。

1 个答案:

答案 0 :(得分:0)

您创建的模型是所谓的管道模型,这意味着它包含两个子模型。第一个是 Vision FeaturePrint 模型,第二个是一个分类器,用于处理这些特征打印并输出类标签。

根据错误消息,管道没有在任何地方输出 parameters 结果。由于它适用于某些 iPhone 而不适用于其他 iPhone,因此这可能是 Core ML 中的一个错误。但是,这也可能是模型或不同 iOS 版本的问题。很难说到底发生了什么。

您可以使用 Netron 工具(开源)查看模型,这应该能让您了解模型中是否确实存在 classLabel