我们如何使用CoreML或ARKit从几乎任何距离检测物体。目前,我已经尝试了ARKIT 3d对象扫描和检测功能,该功能可以在距离对象不远的地方工作,但是当我们远离对象时,它就无法检测到该对象。类似地,使用CoreML,我训练了一个模型来检测物体,该模型只是从近距离检测物体。如何从远距离(实际物体明显太小)实现物体检测。
答案 0 :(得分:0)
在我看来,扫描远处的3D对象没有实际应用。
首先,您需要从所有可用侧面扫描对象,以便将来识别该对象,而不仅仅是从一个PoV上。其次,有时会出现环境雾霾(烟雾,雨水),使这种长距离物体变得不饱和,并使其难以识别。最后,远处物体的表面缺少细节,换句话说,“纹理”非常差。
这个问题的实用解决方案很简单:只需在ARKit和CoreML中使用图像识别技术即可拍摄照片。而且iPhone的CPU和GPU的扫描数据要比mlmodel
重得多,不是吗?