MV3D-Net融合了视觉图像和激光雷达点云信息;它只用了点云的俯视图和前视图,这样既能减少计算量,又保留了主要的特征信息。随后生成3D候选区域,把特征和候选区域融合后输出最终的目标检测框。论文地址:Multi-View 3D Object Detection Network for Autonomous Driving开源代码:GitHub - bostondiditeam/MV3D: Multi-...
以后工作要做自动驾驶环境感知了,从今天开始更新3D目标检测相关的论文综述,刚把爹! 摘要:本文提出MV3D,能够融合LIDAR和RGB图像信息以预测有向3D边界框。MV3D将点云用多视角(multi-view)表征,模型包括两个子网络,一个子网络基于点云数据的鸟瞰图生成3D候选区,另外一个子网络用于多视角特征的深度融合(deep fusion)。