基于体素的3D单阶段检测器的普及率与未开发的基于点的方法形成对比。在本文中,作者提出了一种轻量级的基于点的3D单阶段目标检测器3DSSD,以实现准确性和效率的良好平衡。在这种范例中,所有现有的基于点的方法中必不可少的上采样层和优化阶段都将被放弃。相反,在下采样过程中提出一种融合采样策略,以使在代表性较小的点上进行检测变得可行。
本文为了满足高精度和高速度的要求,开发了一种精细的框预测网络,其中包括候选生成层和具有3D中心度分配策略的无锚回归头。3DSSD范例是一种优雅的单阶段免锚模式,在广泛使用的KITTI数据集和更具挑战性的nuScenes数据集上对其进行评估,本文的方法大大优于所有基于体素的单阶段方法,甚至可以产生与两阶段基于点的方法相当的性能,推理速度高达25+ FPS,比以前的最先进的基于点的方法快2倍。
3D画面理解对于包括自动驾驶和增强现实在内的许多应用都起到了促进,本文聚焦于3D的目标检测,即预测点云表示的3D目标的边缘框及其类别标签。2D的目标检测已经有了很大突破,但无法直接将其方法应用到3D的场景中。与2D的图片相比,点云更加稀疏无序,而且对于局部特征十分敏感,这使得我们很难使用CNN进行学习,因此3D的目标检测的主要问题就是如何利用点云数据。
已有的一些方法如将点云转化为图片、将点云分割为等分布的体素,本文将其称为基于体素的方法,这些方法都是将点云转化为2D的目标检测算法可以应用的形式,虽然这些方法直接且有效,但在转化过程中仍然存在着信息损失,这影响了其表现的进一步提升。
还有一些基于点的方法直接将点云作为输入,然后对每一个点进行边界框的预测。
其中又分为两个阶段,第一个阶段设置一些集合提取层(SA)用于降采样以及抽取上下文特征,另一个阶段则是使用特征传播层(FP)来进行上采样以及传播点在降采样中丢失的特征。一种3D的区域建议网络(RPN)可以为每个点生成建议,从而在第二阶段给出最终的预测结果。这些方法取得了更好的效果,但做inference需要更长的时间。
其中FP的第二阶段耗费了一半的inference时间,目前SA中的采样策略是基于3D欧氏距离的最远点采样(D-FPS),这意味着先前仅有少数内部点的样本或许会在采样后被丢失,从而导致它们无法被检测到。
在STD中,如果不使用上采样而仅使用降采样后被保留下来的点做检测,模型的效果将会下降9%,这就是FP必须要用来做上采样的原因。
为解决这一问题,本文首先提出了一种基于特征距离的采样策略F-FPS,并进一步的将F-FPS与D-FPS进行混合。为了更好地探索在SA之后被保留下来的有代表性的点,本文提出了一个边框预测网络,包括一个候选生成层(CG)、一个无锚回归头和一个3D中心分配策略。在CG中,首先用F-FPS中有代表性的点生成候选点,这一过程收到这些点以及共现例子中的中心点的相对位置的约束。
接下来将这些候选点作为中心,从F-FPS和D-FPS有代表性的点中选取其周围的点,将其特征通过多层感知网络(MLP),这些特征最终被输入到无锚回归头中来预测3D边框。本文还设计了一个3D中心分配策略,给候选点中更靠近样本中心的点更高的得分。
本文在KITTI和nuScenes两个数据及上进行了实验,实验结果表明本文提出的方法优于所有基于体素的单阶段方法,在更快的inference的基础上与两阶段基于点的方法也具有一定可比性。本文的主要贡献如下:1.提出了一个轻量而高效的基于点的单阶段3D目标检测器3DSSD,抛弃了需要大量计算的FP,这与已有的基于点的方法都不同。2.提出了一个混合的采样策略,可以保留先前仅有少数内部点的样本。
3.设计了一个高效的边框预测网络,实验表明该框架由于所有的单阶段方法,在更快的inference的基础上表现出与两阶段方法有可比性的效果。