发布于2024-12-13 阅读(0)
扫一扫,手机访问
对3D场景的全面理解在自动驾驶中至关重要,最近的3D语义占用预测模型已经成功地解决了描述具有不同形状和类别的真实世界物体的挑战。然而,现有的3D占用预测方法在很大程度上依赖于全景相机图像,这使得它们容易受到照明和天气条件变化的影响。通过集成激光雷达和环视雷达等附加传感器的功能,本文的框架提高了占用预测的准确性和稳健性,从而在nuScenes基准上获得了顶级性能。此外,在nuScene数据集上进行的广泛实验,包括具有挑战性的夜间和雨天场景,证实了我们的传感器融合策略在各种感知范围内的卓越性能。
论文链接:https://arxiv.org/pdf/2403.01644.pdf
论文名称:OccFusion: A Straightforward and Effective Multi-Sensor Fusion Framework for 3D Occupancy Prediction
本文的主要贡献概述如下:
OccFusion的总体架构如下所示。首先,将环绕视图图像输入到2D主干中以提取多尺度特征。随后,在每个尺度上进行视图变换,以获得每个级别的全局BEV特征和局部3D特征volume 。激光雷达和环视雷达生成的3D点云也被输入到3D主干中,以生成多尺度局部3D特征量和全局BEV特征。每个级别的动态融合3D/2D模块融合了相机和激光雷达/雷达的功能。在此之后,将每个级别的合并的全局BEV特征和局部3D特征volume 馈送到全局-局部注意力融合中,以生成每个尺度的最终3D volume 。最后,对每个级别的3D volume 进行上采样,并在采用多尺度监督机制的情况下进行skip连接。
在nuScenes验证集上,展示了基于密集占用标签训练的各种方法在3D语义占用预测中的结果。这些方法涉及不同模态概念,包括相机(C)、激光雷达(L)和雷达(R)。
在nuScenes数据集的雨天场景子集上,我们对3D语义占用进行了预测,并使用了密集占用标签进行训练。在这个实验中,我们考虑了相机(C)、激光雷达(L)、雷达(R)等不同模态的数据。这些模态的融合可以帮助我们更好地理解和预测雨天下的场景,为自动驾驶系统的发展提供了重要参考。
nuScenes验证夜间场景子集的3D语义占用预测结果。所有方法都使用密集占用标签进行训练。模态概念:相机(C)、激光雷达(L)、雷达(R)。
性能变化趋势。(a) 整个nuScenes验证集的性能变化趋势,(b)nuScenes验证夜间场景子集,以及(c)nuScene验证雨天场景子集的性能变化趋势。
表四:不同方法的模型效率比较。实验是在一台A10上使用六幅多摄像头图像、激光雷达和雷达数据进行的。对于输入图像分辨率,所有方法均采用1600×900。↓:越低越好。
更多消融实验:
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店