iPhone Robotics Visual-SLAM算法实现

时间:2012-06-14 16:59:13

标签: iphone gps camera robotics slam-algorithm

我有一个带有iPhone的大脑跟踪机器人。它有两个摄像头 - 一个来自iPhone,另一个是独立摄像头。该手机具有GPS,陀螺仪,加速度计和磁力计,传感器融合将用户引起的加速度与重力分开。手机一起可以检测到它在太空中的态度。如果机器人之前撞到它们,我想教机器人至少避开墙壁。

有人可以建议这样的机器人完成Visual Simultaneous Location and Mapping的入门项目吗?我非常感谢Objective-c实现,因为我看到一些用C / C ++编写的项目OpenSlam.org,但那些不是我最强的编程语言。

我无法使用激光测距仪,因此有关Visual SLAM的任何文章,关键词或学术论文也会有所帮助。

感谢您的投入!

1 个答案:

答案 0 :(得分:1)

我建议你看一下FAB-MAP,它在OpenCV中有一个实现

我正在研究visual-SLAM的MS论文,特别是关于闭环问题。

它是用C ++编写的,但是如果你按照例子进行操作,你会发现它很容易使用。