我们如何使用CoreML或ARKit从几乎任何距离检测对象。目前我已经尝试过从近距离到物体的ARKIT 3d物体扫描和检测,但是当我们远离物体时,它无法检测到该物体。类似地使用CoreML,我已经训练了一个模型来检测一个物体,它只是从近距离探测物体。如何从远距离实现物体检测,实际物体明显变得太小。
在我看来,扫描一个遥远的3D物体没有实际应用。
首先,您需要从所有可用侧扫描对象,以便将来识别该对象,而不仅仅是从一个PoV。其次,有时环境阴霾(烟雾,雨水)使这种长距离物体饱和并使其难以辨认。最后,远处物体表面的细节不足,换句话说,“纹理”很差。
这个问题的实用解决方案很简单:只需在ARKit和CoreML中使用图像识别技术预拍照片。 iPhone的CPU和GPU的扫描数据比mlmodel
重得多,不是吗?