IntentNet:学习从原始传感器数据预测意图
重磅干货,第一时间送达
小黑导读
论文是学术研究的精华和未来发展的明灯。小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容。个人能力有限,理解难免出现偏差,建议对文章内容感兴趣的读者,一定要下载原文,了解具体内容。
摘要
为了制定安全机动计划,自动驾驶汽车需要了解其他交通参与者的意图。我们将意图定义为离散的高层次行为和描述未来运动的连续轨迹的组合。在本文中,我们开发了一个利用激光雷达传感器产生的三维点云和环境动态地图的一级探测器和预报器。我们的多任务模型在节省计算量的同时,比各自单独的模块获得了更好的精度,这对减少自动驾驶应用的反应时间至关重要。
在本文中,我们进一步采取这一方法,并提出了一种新的深度神经网络,理由既高层行为和长期轨迹。受人类如何执行这一任务的启发,我们设计了一个网络,利用关于道路拓扑的运动和先验知识,以地图的形式包含语义元素,如车道、十字路口和交通灯。特别是,我们的IntentNet是一个全卷积神经网络,它在单个前向传递中输出三种类型的变量,对应于:车辆和背景类的检测分数,对应于离散意图的高水平行动概率,以及当前和未来时间步长的边界框回归来表示预期轨迹。我们的架构允许我们共同优化所有任务,在单独解决任务时解决任务之间的分配不匹配问题。重要的是,我们的设计还使系统能够通过不同的组件传播不确定性。此外,我们的方法是计算效率的设计,因为所有任务共享繁重的神经网络特征计算。
框架结构
IntentNet以各自连续和离散的意图为场景中的所有车辆在一次向前传递中生成3D检测。通过对分类概率应用0.1的阈值来提取初步检测,目的是实现高召回。从这些特征地图位置,我们检查回归目标和锚盒,并使用NMS去重复检测。由于我们的模型可以预测每辆车未来的路径点,它提供了一个强大的先验关联检测之间的不同时间步。在任何时刻,我们都可以从当前的前进过程中检测到,并在之前的时间步骤中产生预测。因此,通过比较当前的位置和过去对未来的预测,我们解码场景中每辆车辆的轨迹。在FaF[4]中提出的这个简单的跟踪系统也允许我们根据先前的预测更新分类分数来恢复丢失的假阴性和丢弃假阳性。
实验结果
定性的结果
地面真相显示为白色(如果地面真相没有激光雷达点则为灰色),预测为彩色。Legend for high level actions -停车:紫色框,停止/停止:红色框,保持车道:直箭头,转弯:90◦箭头,车道变化:30◦箭头。对于箭头来说,箭头越长,概率越高。为简单起见,没有显示Others类。
我们进行了消融研究,以评估本文提出的每个贡献对实现最终结果有多大帮助,见表4。使用2D CNN和早期不同激光雷达扫描的融合,可以提供一个更强大的检测器,能够比[4]中提出的3D CNN更好地理解时间维度。将上下文从0.5秒增加到1秒(5到10个激光雷达扫描输入)给我们一个小增益,减少了L2的长期误差。请注意,即使检测器在使用相同的置信阈值(0.1)时能够有更高的查全率,回归结果在平均上变得更好(即使考虑到那些更难的例子)。在离散意图估计中加入损失会降低检测器/回归器的性能,因为纯粹基于运动来预测行为是非常困难的。然而,在添加地图后,系统能够预测车辆的高级行为,因此添加损失可以改善总体性能。
结论
在本文中,我们引入了意图网,这是一个可学习的端到端模型,能够处理自动驾驶汽车背景下的车辆检测和意图预测任务。通过利用激光雷达传感器产生的3D点云,以及来自高清地图的场景先验知识,我们能够在所有任务中利用单个神经网络实现更高的性能。在未来,我们计划研究如何更复杂的算法可以建模离散和连续意图之间的统计依赖性。我们还计划将我们的方法扩展到处理行人和自行车。
论文链接:https://arxiv.org/pdf/2101.07907.pdf
每日坚持论文分享不易,如果喜欢我们的内容,希望可以推荐或者转发给周围的同学。
- END -