试图关注https://www.appcoda.com/core-ml-model-with-python/ 要构建图片识别,我使用Core ML(Turi Create)+ Python + Swift(iOS)。
尝试上传我用来训练“.mlmodel”文件的相同图片。 没有帮助。试图加载图片100x100大小。同样的错误。我还能尝试什么?
输出:
2018-04-17 20:54:19.076605 + 0200 [2516:1111075] [MC]系统组 systemgroup.com.apple.configurationprofiles路径的容器是 /private/var/containers/Shared/SystemGroup/systemgroup.com.apple.configurationprofiles
2018-04-17 20:54:19.077580 + 0200 [2516:1111075] [MC]阅读 公共有效用户设置。
2018-04-17 20:54:54.795691 + 0200 [2516:1111075] [coreml]错误 Domain = com.apple.CoreML Code = 1“输入图像特征图像不是 匹配模型描述“UserInfo = {NSLocalizedDescription =输入图像 要素图像与模型描述不符, NSUnderlyingError = 0x1c024cf90 {错误域= com.apple.CoreML代码= 1 “图片无效宽度227,而是224” UserInfo = {NSLocalizedDescription =图像无效宽度227,而不是 是224}}}
2018-04-17 20:54:54.795728 + 0200 [2516:1111075] [coreml]失败 验证输入。
由于评论请求:
func imagePickerController(_ picker: UIImagePickerController, didFinishPickingMediaWithInfo info: [String: Any]) {
if let image = info[UIImagePickerControllerOriginalImage] as? UIImage {
previewImg.image = image
if let buffer = image.buffer(with: CGSize(width: 224, height: 224)) {
guard let prediction = try? mlModel.prediction(image: buffer) else {
fatalError("Unexpected runtime error")
}
descriptionLbl.text = prediction.foodType
print(prediction.foodTypeProbability)
} else {
print("failed buffer")
}
}
dismiss(animated: true, completion: nil)
}
答案 0 :(得分:1)
错误消息字面上说明了错误的原因:
2018-04-17 20:54:54.795691 + 0200 [2516:1111075] [coreml]错误 Domain = com.apple.CoreML Code = 1“输入图像特征图像不是 匹配模型描述“UserInfo = {NSLocalizedDescription =输入图像 要素图像与模型描述不符, NSUnderlyingError = 0x1c024cf90 {错误域= com.apple.CoreML代码= 1 “图片无效宽度227,而是224” UserInfo = {NSLocalizedDescription =图像无效宽度227,而不是 是224}}}
您正在使用的模型(我怀疑它是SqueezeNet)需要大小为227x227,而不是224x224或任何其他尺寸的输入图像。