我们的实验表明,在所有传感器配置中,ORB-SLAM3都与文献中可用的最佳系统一样强大,并且明显更加准确。值得注意的是,我们的立体惯性SLAM在EuRoC无人机中的平均精度为3.5厘米,在TUM-VI数据集的房间中实现了9毫米的快速手持运动,这是AR/VR场景的代表设置。为了社区的利益,我们公开了源代码。 1 引言 在过去的二十年里...
EuRoC中的单阶段实验:对11个序列中的每一个进行处理以产生一个图,传感器配置:单目、双目和双目惯性 在具有挑战性的TUM VI中,具有鱼眼镜头摄像机的单目和双目视觉惯性SLAM的性能 两个数据集中的多阶段实验 我们使用RMS ATE测量精度,在纯单目情况下使用Sim(3)变换,在其余传感器配置中使用SE(3)变换,将估计轨迹与地...
在ORBSLAM3目录输入命令(freiburg1所以配置文件使用TUM1.yaml): ./Examples/RGB-D/rgbd_tum ./Vocabulary/ORBvoc.txt ./Examples/RGB-D/TUM1.yaml ~/Dataset/rgbd_dataset_freiburg1_desk/ ~/Dataset/rgbd_dataset_freiburg1_desk/associate.txt 1. 结果:...
把这个数据集的路径填写到下面这个文件 tum_vi_examples.sh 在终端运行脚本 tum_vi_examples.sh 运行结果截图
我们的实验表明,在所有传感器配置中,ORB-SLAM3与文献中可用的最佳系统一样稳健,并且明显更准确。我们的立体惯性SLAM在EuRoC无人机中实现了3.5厘米的平均精度,在TUM-VI数据集的房间中实现了9毫米的快速手持运动,TUM-VI数据集是一种代表AR/VR场景的设置。
代码:https://github.com/TUMFTM/ORB_SLAM3_RGBL 作者单位:慕尼黑工业大学汽车技术研究所 在本文中,我们提出了一种基于RGB-D模式将3D激光雷达深度测量集成到现有ORBSLAM3的新方法。我们提出并比较了两种深度图生成方法:传统的计算机视觉方法,即逆扩张操作和基于监督深度学习的方法。我们通过添加所谓的RGB-L (LiDAR...
VI SLAM以及TUM-VI数据集 总结 基于ORB-SLAM/ORB-SLAM2以及ORB-SLAM-VI,本文提出了ORB-SLAM3,它是一个功能更加完整,性能更加出众的SLAM系统。这使得该系统更加适合长时/大规模SLAM实际应用。 实验结果表明,ORB-SLAM3是第一个能够有效利用短期,中期,长期和多地图数据关联的视觉和视觉惯性系统,其精度水平已经超出了...
由于这次我们用的是电脑摄像头,是单目相机,因此我们将ORB-SLAM3→Examples→Monocular中的TUM1.yaml文件作为模板,将里面的内容全部复制到mycam.yaml中。 再根据上面得到的ost.yaml文件修改mycam.yaml 红框部分为要修改的标定数据 数据对应关系如下,在ost.yaml中寻找相应的数据: ...
通过实验表明,在所有传感器配置中,ORB-SLAM3与文献中可用的最佳系统鲁棒性一致,而且更加精确。值得注意的是,本文的立体惯性SLAM在EuRoC无人机上实现了3.6cm的平均精度,在TUM-VI数据集(AR/VR场景的代表)的室内场景中,快速手持运动达到了9 mm的平均精度。
在TUM-VI基准数据集上的视觉-惯性SLAM评估中,系统在单目-惯性和双目-惯性配置中获得优越性,与DSO、ROVIO和VI-DSO相比,证实了本文方法的优越性。在多段SLAM评估中,ORB-SLAM3在EuRoC数据集的三个环境中分别处理所有场景段,每个房间中的首个序列提供初始地图,然后处理后续序列,快速与先前段地图合并,...