通过'立体声'而不是' IR'功能

时间:2017-04-18 17:12:02

标签: opencv computer-vision google-project-tango

我目前正在研究Tango设备是否适合我正在使用的应用程序。我需要的是基于视觉的深度领域,目前我正在使用基于OpenCV(Disparity Map)的立体视觉进行测试。到目前为止,我读过的大多数深度感应信息都是指两个“红外线”和“红外线”。基于技术,结构光和飞行时间。具体参考这些页面:

https://developers.google.com/tango/overview/depth-perception https://developers.google.com/tango/apis/c/c-depth-perception

由于距离有限且对IR的环境影响敏感,我需要使用' Stereo'功能。我的问题是在C API中你在哪里选择这三种模式中的哪一种?这是TangoConfig吗?是否所有3个仍然返回TangoPointCloud?

2 个答案:

答案 0 :(得分:1)

虽然我没有关于Tango设备的任何具体信息,但获取密集视差图(并从那里得到密集的深度图)的“立体”方法依赖于从不同位置拍摄两张RGB图像。

高级版本是如果您知道拍摄图像时相机的相对位置和方向,以及相机的某些内部属性,您可以计算每个点的相对偏移量。来自另一幅图像中对应点的图像。 (这里有一个很好的描述https://www.robots.ox.ac.uk/~vgg/hzbook/hzbook2/HZepipolar.pdf

由此,您可以计算出密集的深度图。

OpenCV确实提供了支持这样做的功能(http://docs.opencv.org/trunk/dd/d53/tutorial_py_depthmap.html),但我不知道Tango设备是否很好地包装了这些功能,或者是否需要进行自己的运动跟踪和图像捕获。 / p>

答案 1 :(得分:0)

TangoPointCloud是基于深度图的3D地图,要求您在设备上使用IR。

地图中的每个点都是设备距离该特定点的距离。有一些示例https://github.com/googlesamples/tango-examples-c您可以选​​择CPP Point Cloud示例,以便开始使用Point Cloud系统来实现您的功能。

根据我(有限)的理解,立体数据只是帮助将3D对象放置在深度图中,这样您的对象就可以与虚拟或增强环境更加集成。