我正在创建一个可以执行以下操作的iOS应用程序:
我已经有了coreML模型,并且还知道如何通过添加C ++来处理Opencv,但是问题是:我必须使用OpenCV进行圆检测,而coreML模型只能由Swift进行。
我正在考虑的内容如下:
编写一种使用openCV来检测圆形对象的方法,然后返回从包含这些对象的原始图像中裁剪出的小图像列表及其坐标。
转到Swift并将小图像放入coreML模型,然后尝试返回每个图像的结果。
返回OpenCV并分别绘制与坐标对应的字母“ V”或“ B”。
但这正是我的想法。我几乎不知道如何将其转换为代码,因为在OpenCV和Xcode中似乎无法完成此类任务。
有什么建议吗?