当我独自走在建筑物或带有kinect传感器的房间时,我想生成一个3D模型。我想知道这可能吗?
我的想法是从间隔中获取3D成像(如每3米1张图像)并将它们组合起来,但是我该怎么做呢,如何将这些模型匹配并缝合成一个三维模型,如下图所示。
此图片来自here
根据这个是可能的。是否有任何代码(如C#)我可以参考?
编辑:mapping real world object using kinect 我找到了这个,他设法用gps位置映射真实世界的3D环境。对于我的项目我计划在遥控车中使用传感器,但gps无法在室内工作,如何管理这个问题?