MixSup: Mixed-grained Supervision for Label-efficient LiDAR-based 3D Object Detection, International Conference on Learning Representations (ICLR 2024)

目前基于激光雷达的三维目标检测高效标注训练主要由弱监督和半监督方法主导。与着重于其中某一种方法不同,我们提出的
MixSup
是一种更实用的范式,能同时利用大量廉价的粗粒度标注和有限数量的精确标注进行混合粒度监督。我们从点云的特性中观察到,点云通常是无纹理的,这加大了学习物体语义特征的难度。然而,点云的几何特征非常丰富,且对于传感器的距离具有尺度不变性,这使得学习物体几何特征(如姿态)相对容易。因此,MixSup利用大量粗糙的簇标注来学习语义信息,并使用少量昂贵的边界框标注来学习精确的姿态。我们重新设计了主流检测器中的标注匹配方式,使其能够无缝集成到MixSup中,从而实现实用性和通用性。我们在nuScenes、Waymo Open Dataset和KITTI数据集上使用各种检测器验证了其有效性。MixSup在使用廉价的簇标注和仅有10\%的边界框标注时,实现了相同检测器在完全监督下97.31%的性能。此外,我们提出了利用Segment Anything Model自动生成大量粗粒度标注的方案,进一步减轻了标注负担。

混合粒度监督训练框架

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

Zhaoxiang Zhang © 2020