使用iPhone相机(可能是ARKit,Apple Vision,CoreML / ml模型等的某些组合),您将如何测量物体的尺寸(宽度,高度,深度)?对象是桌子上的小东西
使用mlmodel,您可以训练ML以执行特定对象的对象检测。这样只允许您在2d屏幕上围绕检测到的对象绘制一个框。
我希望能够使用手机摄像头查看并可能在对象周围移动以确定对象的尺寸/实际尺寸。
我读过关于边缘检测或形状检测的内容,但我认为我不需要图像来进行整体嵌套边缘检测。
ARKit擅长使用手机的硬件来足够精确地测量小比例距离。
一种可能的方法是在要比较的对象旁边放置一个已知大小的参考对象(如四分之一),但这会引入并发症。麻烦。
理想情况下,我想将iPhone相机对准桌面上的小物体,或者环顾四周(围绕物体旋转一下)并对物体尺寸和物体进行一系列测量。对象的实际位置有ARAnchor。
答案 0 :(得分:1)
让用户通过点击对象的角来进行ARHittest。 在那里你可以在ARWorld中获得一个节点位置。 从那里你可以计算出物体的具体长度......
let newPoint = CGPoint(*e.g. the point the user taps*)
let hitTestResults = sceneView.hitTest(newPoint, types: .estimatedHorizontalPlane)
guard let hitTestResult = hitTestResults.first else { return }
print("Your Nodes position: (htr.worldTransform.translation)")
然后计算这些点之间的距离。
此外,您可以在没有用户点击的情况下制作此ARHitTest。 然后通过Vision检测对象并在适当的时刻制作ARHitTest。