**SLAM**,全称是Simultaneous Localization and Mapping,即**同时定位与建图**,指机器人在自身位置不确定的条件下,在完全未知环境中创建地图,同时利用地图进行自主定位和导航。因此可知SLAM的主要工作是**定位**以及**建图**。
![](./imgs/slamintro1.jpg)
目前SLAM有很多实现方法,根据使用传感器不同,主要分为:
**(1)激光雷达传感器;**
**(2)视觉传感器;**
**视觉SLAM**(Visual SLAM 简称VSLAM)包括使用**单目SLAM**、**双目SLAM**和以**Kinect**为代表的深度摄像头的**RGB-D SLAM**。相比使用激光雷达传感器,视觉传感器的成本更低,因此也越来越受青睐。
目前SLAM被广泛应用于无人驾驶汽车、无人机、VR和AR等领域。
下面是宾大的教授kumar做的特别有名的一个demo,是在无人机上利用二维激光雷达做的SLAM。
![](./imgs/vslam1.gif)
## 2.VSLAM系统及相关资料介绍
目前在VSLAM领域实现较好的SLAM系统有:
- 单目、双目SLAM:
(1).**PTAM**(Parallel Tracking And Mapping):2007年很流行的SLAM项目,是**第一个**使用BA完成**实时SLAM**的系统。但其缺乏**回环检测和重定位等功能**,只能作用于小规模的场景,且稳定性也不是很高。(http://www.robots.ox.ac.uk/~gk/PTAM/)
(2).**DTAM**(Dense tracking and mapping in real-time):2011年,Direct SLAM方法的**鼻祖**;
(3).**LSD-SLAM**(Large-Scale Direct Monocular SLAM):2014年一个半稠密SLAM系统。(http://vision.in.tum.de/research/vslam/lsdslam)