基于激光雷达与视觉融合的SLAM系统设计与实现
【摘要】:随着移动服务机器人产业的快速发展,其应用场景也变得更加复杂多样,凭借单一传感器进行同时定位与地图构建难以满足应用需求,采用多个传感器进行准确定位及建图已成为该领域的研究热点之一。为了克服二维激光雷达和深度相机传感器在同时定位与地图构建(SLAM)领域存在的技术问题,本文结合上述两种传感器的优劣情况,研究并实现基于激光雷达与视觉信息融合的SLAM算法。本文首先针对传统Gmapping算法中采样粒子数固定不变导致系统资源浪费和构建地图精度较低的问题,提出一种基于Gmapping的可变粒子数算法。该方法能够根据环境的复杂程度动态调整系统中采样粒子数,通过大量实验找到环境复杂度和采样粒子数之间的对应关系。在MATLAB中仿真得到改进后的Gmapping算法中移动机器人运行时间更短,运动轨迹更接近真实值,提升了定位精准度和效率。其次,以开源ORB-SLAM2算法为基础提出一种实时栅格地图构建方法,该算法通过构建逆传感器模型结合占据栅格地图模型得到用于导航的地图,通过实验移动机器人能在现实会议室场景中构建出清晰准确的栅格地图。最后,提出了激光雷达与深度相机融合的SLAM方案。该方法的数据融合采用贝叶斯估计,将基于ORB-SLAM2算法与改进Gmapping算法构建的局部地图进行融合。在KITTI数据集上得到该融合方案的运动总累计误差最大值为25.518332、均值为12.312251,定位效果显著优于主流的单一传感器方法;在实际室内环境下进行单一传感器和融合SLAM之间的对比实验,融合后的SLAM方案得到更加全面准确的栅格地图,验证了融合方案的有效性和实用性,达到了预期设计要求。