PointPillars: Fast Encoders for Object Detection from Point Cloudsarxiv.org/abs/1812.05784 Code https://github.com/nutonomy/second.pytorchgithub.com/nutonomy/second.pytorch Abstract 点云中的目标检测是自动驾驶等机器人应用中的一个重要方面。在本文中,作者思考了将点云编码成适合下游检测pipeline...
PointPillars损失函数的设计和SECOND相同,一共有三个Loss: 类别损失 使用的是Focal Loss,因为目前的自动驾驶点云数据集都存在类别样本不均衡的问题,所以这里使用Focal Loss。公式如下: \mathcal{L}_{cls}=-\alpha_{a}(1-p^a)^{\gamma}\log p^a\\ 对于focal loss理解:对于某个框的类别gt,是一个one-hot...
从模型的名称PointPillars可以看出,该方法将Point转化成一个个的Pillar(柱体),从而构成了伪图片的数据。 然后对伪图片数据进行BBox Proposal就很简单了,作者采用了SSD的网络结构进行了Proposal。 本文的论文地址为:https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1812.05784 代码地址为:https://link.zhih...
PointPillars: Fast Encoders for Object Detection from Point Clouds 论文链接: https://arxiv.org/abs/1812.05784 一、Problem Statement 作者认为目前对于point cloud 的两种encoding 方式,精度与速度不能很好的兼备,因此提出一种新的encoding 方式,名为Poin... 查看原文 盘点CVPR 2019影响力最大的20篇论文 | 20...
PointPillars是一种专注于点云数据的物体检测算法,它在仅利用激光雷达数据的情况下,实现了优越于现有方法的检测性能。该算法不仅具备更快的运行速度和更高的检测精度,还在KITTI 3D目标检测和鸟瞰图检测基准测试中展现出显著的优势。即使与使用激光雷达和图像数据融合的方法进行对比,PointPillars算法依然表现出更高的检测准确...
PointPillars的损失函数也是一样的简单哈。作者采用了SECOND中类似的损失函数,每个3D BBox用一个7维的向量表示,分别为。 其中为中心,为尺寸数据,为方向角。 那么检测框回归任务中要学习的参数为这7个变量的偏移量: 作者采用了 Smooth L1损失函数进行训练 ...
02论文创新点 本文的创新点是提出了一种新的编码器,称为PointPillars,它可以对点云数据进行端到端的训练,并且可以在只使用激光雷达数据的情况下实现比现有方法更高的检测性能。PointPillars使用PointNets对点云数据进行编码,将点云数据组织成垂直柱状结构,然后使用2D卷积神经网络进行检测。与现有方法相比,PointPillars具有...
【3D目标检测】PointPillars: Fast Encoders for Object Detection from Point Clouds论文解读(2019) 技术标签: 深度学习 3D目标检测 自动驾驶1、 为什么要做这个研究(理论走向和目前缺陷) ? VoxelNet只有4.4fps,SECOND虽然能达到20fps,但还有提升空间。 2、 他们怎么做这个研究 (方法,尤其是与之前不同之处) ? 算...
论文地址:PointPillars: Fast Encoders for Object Detection from Point Clouds Github 地址:PointPillars: Fast Encoders for Object Detection from Point Clouds 1. 解决了什么问题? 点云目标检测是自动驾驶领域的一个重要方向。自动驾驶要实时地检测和跟踪运动目标,如车辆、行人、骑车人。为此,自动驾驶车辆需要有多...
可以看出,截止CIA-SSD论文发表前,PointPillars的检测速度都是遥遥领先的,而且精度也不低。 现有的一些研究喜欢将不规则、稀疏的点云数据按照以下两种方式进行处理,然后引入RPN层进行3D Bbox Proposal,这两种方法为: (1)将点云数据划纳入一个个体素(Voxel)中,构成规则的、密集分布的体素集。常见的有VoxelNet和SECOND...