Open3D、深度学习缺陷检测、3D缺陷检测、BEV&Occ、Transformer、模型部署、3D目标检测、单目深度估计、车载标定、规划与控制、无人机、三维视觉C++、三维视觉python、dTOF、相机标定、ROS2、机器人控制规划、LeGo-LAOM、激光-视觉-IMU-GPS融合SLAM、LOAM-SLAM、室内室外SLAM、VINS-Fusion、ORB-SLAM3、MVSNet三维重建、...
近年来,同步定位与建图(SLAM)技术在自动驾驶、智能机器人、增强现实(AR)、虚拟现实(VR)等领域得到广泛应用。使用最流行的三种类型传感器(例如视觉传感器、LiDAR传感器和 IMU)的多传感器融合在SLAM中变得无处不在,部分原因是互补的传感能力和不可避免的缺陷(例如低精度和长距离测量)。独立传感器在具有挑战性的环境中的...
激光SLAM和导航定位平台基于激光雷达SLAM系统目的在于构建出符合环境特征的高精度地图,基于激光雷达导航定位系统目的在于在已知环境地图上实时输出机器人在地图上的位姿,两者紧密相关,SLAM系统输出的地图精度决定了导航定位系统输出位姿的精度。 3D激光雷达(LiDAR)与惯性测量单元(IMU)的紧耦合融合技术实现激光SLAM,紧耦合优势...
在本文中,我们提出了一种精确而鲁棒的LIW-OAM系统,该系统将LiDAR、IMU和车轮编码器的测量结果融合在一个基于BA的优化框架中。车轮编码器的参与可以提供速度测量作为一个重要的观测,这有助于LI-OAM提供更准确的状态预测。此外,在优化过程中利用车轮编码器的观测约束速度变量,可以进一步提高状态估计的精度。在两个公共...
论文链接:https://arxiv.org/pdf/2302.14298.pdf,由华中科技大学团队发表,开源代码地址:https://github.com/ZikangYuan/liw_oam。该系统融合了激光雷达、IMU及车轮编码器的数据,采用BA优化框架,实现了更精确的状态预测与估计。实验结果显示,新系统在减小轨迹误差方面表现优秀,车轮编码器的引入显著提升了系统性能。
VIRAL SLAM: Tightly Coupled Camera-IMU-UWB-Lidar SLAM 作者丨thinking@知乎 编辑丨3D视觉工坊 摘要:在本文中,我们提出了一个紧密耦合的多模式SLAM框架,集成了大量的传感器:惯性测量单元、摄像机、多激光雷达和UWB距离测量,因此被称为VIRAL(视觉惯性测距激光雷达)SLAM。为了实现这样一个全面的传感器融合系统,必须解决...
i)仅激光雷达,如BLAM,LOAM,A-LOAM,ISC-LOAM和HDL图SLAM ii)激光雷达惯性,如LeGO-LOAM,Cartographer,LIO-mapping和LIO-SAM。 这些方法的评估是在地下隧道执行任务期间从配备3D激光雷达Velodyne Puck Lite和IMU Vectornav VN-100的Boston Dynamics Spot机器人收集的数据集进行的。在评估过程中,将机器人位姿和SLAM算法...
In this environment, the existing LIDAR-based Simultaneous localization and mapping (SLAM) solution is prone to positioning drift and large mapping errors. To address these problems, a tightly coupled SLAM algorithm based on LiDAR (Light Detection and Ranging) and IMU (Inertial Measurement...
•Lego-Loam:它从Velodyne VLP-16激光雷达(水平放置)和可选的IMU数据中输入点云作为输入。该系统实时输出6D姿态估计,并具有全局优化和闭环检测[11]。 • Cartographer:它支持2D和3D SLAM [9]。 •IMLS-SLAM:它提出了一种新的低漂移SLAM算法,该算法仅基于基于扫描模型匹配框架的3D LiDAR数据[10]。
视觉SLAM主要是基于相机来完成环境的感知工作,相对而言,相机成本较低,容易放到商品硬件上,且图像信息丰富,因此视觉SLAM也备受关注。 目前,视觉SLAM可分为单目、双目(多目)、RGBD这三类,另还有鱼眼、全景等特殊相机,但目前在研究和产品中还属于少数,此外,结合惯性测量器件(Inertial Measurement Unit,IMU)的视觉SLAM也是...