我有一个带有 iPhone 大脑的履带式机器人。它有两个摄像头——一个来自 iPhone,另一个来自独立摄像头。该手机具有 GPS、陀螺仪、加速度计和磁力计,传感器融合将用户引起的加速度与重力分离。手机可以一起检测自己在太空中的姿态。如果机器人之前撞到墙壁,我想教机器人至少避开墙壁。
任何人都可以建议由此类机器人完成的视觉同时定位和映射的入门项目吗?我会非常感谢 Objective-c 的实现,因为我在 OpenSlam.org 上看到了一些用 C/C++ 编写的项目,但这些并不是我最擅长的编程语言。
我无法使用激光测距仪,因此任何有关 Visual SLAM 的文章、关键词或学术论文也会有所帮助。
谢谢您的意见!