论文链接:https://arxiv.org/pdf/2102.12400.pdfGitHub链接:https://github.com/hku-mars/r2live数据集下载:关注微信公众号“自动驾驶专栏”,后台回复“R2LIVE数据集” 作者:自动驾驶专栏 | 原文出处:公众号…
介绍最近雷达 SLAM 很火,但是在几何特征较少场景下表现很差,小视角 FOV 雷达表现就更差了,因此提出雷达-惯性-视觉紧耦合框架。 将雷达、IMU 和相机传感器紧耦合,实验证明在剧烈运动、单个传感器失效、地铁环境…
论文链接:https://arxiv.org/pdf/2102.12400.pdfGitHub链接:https://github.com/hku-mars/r2live 作者:自动驾驶专栏 | 原文出处:公众号【自动驾驶专栏】实验和结果 A.数据采集装置我们用于数据采集的手持装置…
论文阅读《R2LIVE: A Robust, Real-time, LiDAR-Inertial-Visual tightly-coupled state Estimator and mapping》 晃晃悠悠的虚无周 3 人赞同了该文章 因为本人的目前研究方向是多传感器融合的,所以会有选择的挑选最新的关于多传感器融合的论文进行阅读(包括arxiv的未发表论文)。最近看到了港大的Mars实验室(他们之前...