目前我正在研究从捕获的图像中测量物体的大小。我的想法是从由camera2 api 库捕获的捕获图像中测量对象大小。我对其进行了太多研究,发现大部分解决方案都带有张量流,但我需要在不使用张量流的情况下完成。
那么没有张量流可以做到这一点吗?
一般来说,不可能完全正确地从单个图像计算出物体的大小。
举个简单的例子,如果你有一个 0.5 米大小的沙滩球,距相机 1 米。你如何将它与 0.25 米大小、0.5 米远的沙滩球区分开来? (实际数字可能有点不同,因为光学具有一些相互关系而不是线性关系)。
如果您有深度相机或立体相机,您可以实际确定物体距离,然后计算物体大小。否则,您可以使用类似 ML 的方法进行猜测,例如“这是一把椅子,椅子通常这么大”或“灯光表明该物体至少有 X 米大”。
像ARCore这样的系统通过移动相机进行多帧分析以了解 3D 场景。但同样,随着时间的推移,这是多个帧,而不是单个图像。
如果无法选择基于 TensorFlow 的方法,也许您可以使用 ARCore。否则,您需要找到运动结构库(SLAM 等),但您仍然需要多个图像作为输入。