为提升动态场景中视觉SLAM(Simultaneous Localization and Mapping)系统的定位精度和鲁棒性,提出一种基于光流和实例分割的视觉SLAM方法。针对动态物体和静态背景光流方向的不一致性,提出一种高实时性动态区域掩模检测算法,从而在ORB-S...为提升动态场景中视觉SLAM(Simultaneous Localization and Mapping)系统的定位精度和鲁棒性,提出一种基于光流和实例分割的视觉SLAM方法。针对动态物体和静态背景光流方向的不一致性,提出一种高实时性动态区域掩模检测算法,从而在ORB-SLAM2原有跟踪线程中实时地剔除处于动态区域掩模中的特征点。利用已有深度图和跟踪线程位姿估计的信息去除相机运动相关光流,然后聚类动态物体自身运动产生的光流幅值,从而实现高精度的动态区域掩模检测,并结合对极几何约束剔除局部建图线程中的动态路标点。在TUM和KITTI数据集上的测试结果表明,在高动态场景下,本文算法相较ORB-SLAM2、Detect-SLAM、DS-SLAM,定位精度平均提升97%、64%和44%。相较DynaSLAM,本文算法在一半的高动态场景中定位精度平均提升20%,这验证了本文算法在高动态场景中提升了系统定位精度和鲁棒性。展开更多
文摘为提升动态场景中视觉SLAM(Simultaneous Localization and Mapping)系统的定位精度和鲁棒性,提出一种基于光流和实例分割的视觉SLAM方法。针对动态物体和静态背景光流方向的不一致性,提出一种高实时性动态区域掩模检测算法,从而在ORB-SLAM2原有跟踪线程中实时地剔除处于动态区域掩模中的特征点。利用已有深度图和跟踪线程位姿估计的信息去除相机运动相关光流,然后聚类动态物体自身运动产生的光流幅值,从而实现高精度的动态区域掩模检测,并结合对极几何约束剔除局部建图线程中的动态路标点。在TUM和KITTI数据集上的测试结果表明,在高动态场景下,本文算法相较ORB-SLAM2、Detect-SLAM、DS-SLAM,定位精度平均提升97%、64%和44%。相较DynaSLAM,本文算法在一半的高动态场景中定位精度平均提升20%,这验证了本文算法在高动态场景中提升了系统定位精度和鲁棒性。