其原理可以简单描述为:利用视觉摄像头获取环境图像,利用惯性测量单元(IMU)获取设备运动信息,然后将两者进行融合,实现对设备位置和姿态的估计和跟踪。 具体来说,vinsfusion算法以IMU为基础,通过预测算法来估算运动状态,而视觉则用于“互补滤波”,将IMU的漂移等误差补偿掉,以达到更高的精度。在此基础上,vinsfusion算法还...
VINS-Fusion(一):特征点的提取和跟踪 github.com/ShuyueLin/VI 一、相关原理解析 1、角点 将会介绍FAST角点,Harris角点以及Shi-Tomasi角点的相应原理(毕竟这是笔记,不仅仅会记录VINS涉及的,还会记录常见的知识点)。需要注意得是:在VINS中提取得是Shi-Tomasi角点。 关于角点的几种描述: a、某局部区域像素一阶导数...
VINS-FUSION是在VINS-Mono的基础上,添加了GPS等可以获取全局观测信息的传感器,使得VINS-FUSION可以利用全局信息消除累计误差,进而减小闭环依赖。如果你不关心GPS等全局传感器,只关心IMU、摄像头传感器的处理,那么VINS-FUSION代码和VINS-Mono几乎一样,本博客也只介绍VINS-FUSION的前端和后端处理。 我们先看一下VINS-FUSION...
前端主要处理传感器获取的数据,并将其转化为相对位姿或其他机器人可以理解的形式;后端则主要处理最优后验估计的问题,即位姿、地图等的最优估计。 机器人所拥有的传感器主要有:深度传感器(超声波、激光雷达、立体视觉等),视觉传感器(摄像头、信标),惯性传感器(陀螺仪、编码器、电子罗盘)以及绝对坐标(WUB,GPS)等。 ...
VINS-Fusion是香港科技大学于2019年开源的视觉-惯性SLAM系统,KITTI Visual Odometry 榜单中排名最靠前的开源双目 VO 方案,主要支持:单目+IMU、纯双目、双目+IMU、双目+IMU+GPS,是一个可以用于室外场景中无人车辆/机器人自主定位的优秀方案,以下是官方测试效果展示:...
机器人所拥有的传感器主要有:深度传感器(超声波、激光雷达、立体视觉等),视觉传感器(摄像头、信标),惯性传感器(陀螺仪、编码器、电子罗盘)以及绝对坐标(WUB,GPS)等。 不像人对环境的感知,机器人从这些传感器中获取的信息非常有限,不能充分地表征机器人周围地环境。例如常用的2D激光雷达仅能获取一个平面的深度信息;...
VINS-Fusion是香港科技大学于2019年开源的视觉-惯性SLAM系统,KITTI Visual Odometry 榜单中排名最靠前的开源双目 VO 方案,主要支持:单目+IMU、纯双目、双目+IMU、双目+IMU+GPS,是一个可以用于室外场景中无人车辆/机器人自主定位的优秀方案,以下是官方测试效果展示:...
VINS-Fusion是香港科技大学于2019年开源的视觉-惯性SLAM系统,KITTI Visual Odometry 榜单中排名最靠前的开源双目 VO 方案,主要支持:单目+IMU、纯双目、双目+IMU、双目+IMU+GPS,是一个可以用于室外场景中无人车辆/机器人自主定位的优秀方案,以下是官方测试效果展示:...