我对Core ML还是很陌生,但是到目前为止,在使用它方面还有很多乐趣。我目前正在学习如何通过在操场上创建模型并验证其结果来训练模型以进行面部识别。我保存了.mlmodel并将其实现在我的应用中。
我的问题是,当我在操场上进行测试时,它似乎具有很高的准确性,但是当我在应用程序环境中使用相同的图片实现相同的模型时,我得到的结果完全不同,这几乎是不可用的。 / p>
这是我从调试控制台获取的一些代码。
[<VNClassificationObservation: 0x282deff00> BFB8D19B-40AE-45F9-B979-19C11A919DBE, revision 1, 0.778162 "Others", <VNClassificationObservation: 0x282dede60> 9E9B2AC8-3969-4086-B3B0-6ED6BEDFFE71, revision 1, 0.221838 "Me"]
这里,即使我在测试过程中正确地将同一张图片在操场上分类了,也会错误地将我的图片分类为其他人。看来应用本身运行良好,只是模型突然失效了。
我在这里想念什么?
谢谢
答案 0 :(得分:1)
通常,当您以不同的方式将图像加载到Playground与应用程序中时,就会发生这种情况。我要做的是确保两种情况下使用的图像完全相同。在将图像提供给模型之前,不仅要考虑图像内容,而且要了解如何加载图像。