我有一个带有iPhone的大脑跟踪机器人。它有两个摄像头 - 一个来自iPhone,另一个是独立摄像头。该手机具有GPS,陀螺仪,加速度计和磁力计,传感器融合将用户引起的加速度与重力分开。手机一起可以检测到它在太空中的态度。如果机器人之前撞到它们,我想教机器人至少避开墙壁。
有人可以建议这样的机器人完成Visual Simultaneous Location and Mapping的入门项目吗?我非常感谢Objective-c实现,因为我看到一些用C / C ++编写的项目OpenSlam.org,但那些不是我最强的编程语言。
我无法使用激光测距仪,因此有关Visual SLAM的任何文章,关键词或学术论文也会有所帮助。
感谢您的投入!
答案 0 :(得分:1)