如何将用户图纸与预定义的图纸模型匹配?

时间:2019-05-31 06:31:26

标签: ios swift coreml coremltools

我正在尝试开发图像识别iOS应用,我将拥有一个参考图像,并且用户必须在一个屏幕上绘制一些东西,并且当用户松开手指时,然后我会将其绘制转换为UIImage / CGImage,然后进行比较与参考图像的接近度百分比。

如果百分比将超过90%,则用户将获胜。 (请参见下图,忽略红色(用户Canvas)和黄色边框(参考边界将不包含在atul图像中))

enter image description here

我到目前为止所做的事情

我创建每个引用的自定义图像数组,然后从该网站创建MLModel

https://cloud.ibm.com/developer/appledevelopment/starter-kits/custom-vision-model-for-core-ml-with-watson

这是我创建的模型,我也对其进行过培训:

https://drive.google.com/open?id=1pkunnq9AyXmPYkFdPVWtumXaxGzXm726

我尝试使用MLModel做到这一点,但每次应用程序显示的都是90%以上的百分比,我无法做到这一点。

请建议

我试图在iOS Swift中使用MLKit,但我做错了,如果可以,那么正确的方法是什么

1 个答案:

答案 0 :(得分:0)

我建议您遵循Apple模板上的有关如何将CoreML模型与图像一起使用的知识,您将处理CoreML和Vision框架。

Classifying Images with Vision and Core ML