在我的大学,我们有几个Kinect 1和Kinect 2。我正在测试两台设备上Kinect Fusion结果的质量,并且意外地Kinect 2产生了最差的结果。
我的测试环境:
在这种情况下,如果我检查Kinect 1和2的两个结果,那么看起来Kinect 2有一种更平滑更好的结果点云,但如果我从不同角度检查扫描,那么你可以看到即使点云更平滑,Kinect 2的结果也是最糟糕的。正如你在图片上看到的那样,如果我从相机的相同视图中检查得到的点云,那么它看起来不错,但是一旦我从不同的角度检查它,那么Kinect 2的结果是可怕的,不能甚至可以说在红圈中有一个杯子。
在这种情况下,Kinect 2的结果甚至更差,然后在上面提到的情况下与Kinect 1进行比较。实际上,如果我移动它,我甚至无法使用Kinect 2重建。另一方面,Kinect 1在移动相机方面做得非常好。
有没有人知道为什么Kinect 2未能对Kinect 1进行这些测试?正如我上面提到的,我在大学里有几台Kinect摄像机,每台摄像机都经过多次测试,所以这不应该是硬件问题。
答案 0 :(得分:1)
当我使用Kinect进行3D重建时,我遇到了类似的结果。与Kienct 1相比,Kinect 2产生了更糟糕的结果。实际上,我尝试使用InfiniTAM框架进行3D重建。它也产生了类似的结果。与你的情况相比,我的情况有所不同,那就是我正在移动相机并且相机跟踪很糟糕。
当我向InfiniTAM的作者询问此事时,他们提供了以下可能的解释:
... Kinect v2有一个飞行时间相机,而不是一个结构化的 光传感器。由于活动调制的不完善 据了解,大多数这些飞行时间的传感器都是众所周知的 倾向于具有偏差的深度值,例如在2米的距离,一切 比测量的距离大约5厘米,距离为3米 比测量距离大约5厘米...
显然,这不是结构光照相机(Kinect v1等)的问题。您可以按照原始讨论here进行操作。