首先回顾一下历史:ORB-SLAM首次在2015年被提出,它的改进版ORB-SLAM2在2017年被提出,同年提出了ORB-SLAM-VI,时隔3年,ORB-SLAM3横空出世,朋友圈、学术群里到处都在热议这个挂在Arxiv才不到3天的论文。好奇心的驱使下,本人偷瞄了一下论文,就在这里总结一下吧。 开始之前,先放两条ORB-SLAM3的展示视频撑撑场面。
ORB-SLAM2作为一个基于特征的方法预处理输入来提取特征在显著的关键点位置出,如图2-b;然后输入图像被丢弃,所有系统操作都基于这些特征,以便系统是独立于双目或者RGB-D等传感器。我们的系统能够处理单目,双目关键点,这些关键点进一步分类为近点和远点。 双目关键点由如下三个坐标系定义,Xs=(uL,vL,uR),在左侧图片中...
系统的初步版本在ORB-SLAM: Tracking and mapping recognizable features,” in MVIGRO Workshop at Robotics Science and Systems (RSS), Berkeley,USA, July 2014.中提出。当前文章增加了初始化方法,本质图,包含了所有很好的方法。 据我们所知,这是目前最完整,最可靠的单目解决方案。 2、相关工作 A、位置识别 ...
论文33 提出了CD-SLAM方法,一个非常复杂的系统,包括闭环控制,重定位,动态环境、大场景下运行。但它的地图初始化并没有讲。所以没法做精确性、鲁棒性和大场景下的测试对比。 论文34的视觉里程计方法使用了ORB特征做追踪,处理BA后端滑动窗口。相比之下,我们的方法更具一般性,他们没有全局重定位,闭环回路控制,地图也...
al提出了CD-SLAM,一个包含闭环检测,重定位,大尺度操作和在试图在动态环境下工作的完整的系统。然而未提及地图初始化。并没有公开其实现,使得我们无法对精确度,鲁棒性和大尺度能力进行比较。 Song et al的视觉里程计使用ORB特征点进行追踪,一个暂时的滑动窗口BA做后端。比较下来我们的系统更完整,因为他们没有全局重...
提出了一种将LiDAR深度测量值集成到现有ORB-SLAM3算法中的方法。 提出并比较了两种从LiDAR点云生成稠密深度图的方法 为自动驾驶汽车的定位提供了各种实验,证明了我们方法的准确性和鲁棒性。 比较了运行时间,并显示与双目模式相比减少了40%以上。 主要内容
手把手教机器人,家政人员大有可为 | 提出diffusion policy的团队,为了更方便地收集机器操作示教数据,开发了Universal Manipulation Interface(如图)。相比需要实体机械臂的ALOHA, UMI的核心转变是利用视觉slam(orb-slam3)来进行末端手部的轨迹估计,替代机械臂的运动学计算。有了这套系统,不久的将来,家政人员可以一边工作...
本文提出了ORB-SLAM,在大小场景、室内室外环境下都可以实时操作的一种基于特征的单目SLAM系统。系统对复杂的剧烈运动具有鲁棒性,允许宽基线的闭环和重定位,且包含完整的自动初始化。基于最近几年的优秀算法之上,我们从头开始设计了一种新颖的系统,它对所有SLAM任务使用相同的特征:追踪、建图、重定位和闭环。合适策略的...
我们提出ORBSLAM-Atlas的一个多地图系统能够将单一地图的ORB-SLAM的杰出质量带入到多地图领域。它不仅能够鲁棒的检测宽基线匹配而且在随后的非线性优化中产生精确的相机和地图估计。产生的多地图系统是更鲁棒的,因为它能够在探索轨迹丢失中自救回来,并且更通常的是,因为它能自然的处理多个阶段的操作。