我正在尝试开发图像识别iOS应用,我将拥有一个参考图像,并且用户必须在一个屏幕上绘制一些东西,并且当用户松开手指时,然后我会将其绘制转换为UIImage / CGImage,然后进行比较与参考图像的接近度百分比。
如果百分比将超过90%,则用户将获胜。 (请参见下图,忽略红色(用户Canvas)和黄色边框(参考边界将不包含在atul图像中))
我到目前为止所做的事情:
我创建每个引用的自定义图像数组,然后从该网站创建MLModel
这是我创建的模型,我也对其进行过培训:
https://drive.google.com/open?id=1pkunnq9AyXmPYkFdPVWtumXaxGzXm726
我尝试使用MLModel做到这一点,但每次应用程序显示的都是90%以上的百分比,我无法做到这一点。
请建议
我试图在iOS Swift中使用MLKit,但我做错了,如果可以,那么正确的方法是什么
答案 0 :(得分:0)
我建议您遵循Apple模板上的有关如何将CoreML模型与图像一起使用的知识,您将处理CoreML和Vision框架。