如何从不同视角的点云重建场景

时间:2017-04-09 03:48:34

标签: kinect point-clouds 3d-reconstruction

我正面临3D重建问题,因为我是这个领域的新手。我有一些不同的视图'深度图(点云),我想用它们来重建场景以获得像使用kinect融合的效果。是否有任何源代码的纸张来解决这个问题。或者关于这个问题的任何想法。 PS:点云存储为带有(x,y,z)的文件,您可以检查here以获取数据。 非常感谢你。

1 个答案:

答案 0 :(得分:0)

正如您所述,您是本领域的新​​手,我将尽力保持这一高水平。如果有不清楚的地方,请发表评论。

您引用的管道具有三个关键阶段:

  • 集成
  • 渲染
  • 姿势估计

Integration阶段从当前姿势下的深度图(Kinect图像)中获取unprojected points,并将它们“集成”到空间数据结构(诸如Signed Distance Function的体素卷或层次结构中像Octree这样的结构,通常是通过保持每个Voxel的运行平均值。

“渲染”阶段采用当前帧的相反姿势,并生成当前视图中模型的可见部分的图像。对于常见的体积表示,这是通过Raycasting实现的。该阶段的输出提供了要向其注册下一个实时框架(下一阶段)的模型点。

“姿势估计”阶段将先前提取的模型点注册到实时帧的模型点。这通常是通过Iterative Closest Point算法来实现的。

关于相关文献,我建议以下论文作为起点。

KinectFusion: Real-Time Dense Surface Mapping and Tracking

Real-time 3D Reconstruction at Scale using Voxel Hashing

Very High Frame Rate Volumetric Integration of Depth Images on Mobile Devices