FatNet:一个用于三维点云处理的特征关注网络
点击上方“深度学习爱好者”,选择加"星标"或“置顶”
重磅干货,第一时间送达
小黑导读
论文是学术研究的精华和未来发展的明灯。小黑决心每天为大家带来经典或者最新论文的解读和分享,旨在帮助各位读者快速了解论文内容。个人能力有限,理解难免出现偏差,建议对文章内容感兴趣的读者,一定要下载原文,了解具体内容。
摘要
深度学习在三维点云中的应用由于缺乏顺序性而具有挑战性。受PointNet的点嵌入和dgcnn的边缘嵌入的启发,我们对点云分析任务提出了三个改进。首先,我们引入了一种新的特征关注神经网络层FAT层,它结合了全局点特征和局部边缘特征来生成更好的嵌入。其次,我们发现在两种不同形式的特征地图聚合(最大池和平均池)中应用相同的注意力机制,可以获得比单独使用任何一种更好的性能。第三,我们观察到残差特征重用在此设置下更有效地在层间传播信息,使网络更容易训练。我们的体系结构在点云分类任务上取得了最先进的结果,如在ModelNet40数据集上所示,并在ShapeNet部分分割挑战上具有极具竞争力的性能。
1)我们提出了一种新的注意力注入层,即FAT层,用于3D点云处理,该层通过非线性加权优化结合了全局基于点的嵌入和局部基于边的嵌入。
2)我们对两种不同的特征聚合方法应用加权,这比单独聚合更好。
3)首次通过残差连接增强了处理三维点云的网络学习,并通过共享权重MLPs对嵌入维数进行提升。
4)一项广泛的评估显示了ModelNet40分类任务的最新结果,在ShapeNet零件分割任务上的高度竞争结果,以及对随机输入点丢失的卓越鲁棒性。消融研究证实了我们的网络组成部分的有效性。
框架结构
提出了用于分类和分割任务的FatNet体系结构
上路径:对c类的分类。下路径:对类c的r部分进行分割。
FatNet采用的层结构
特征注意块呈现在每个FAT层中
平均池化和最大池化操作通过一个共享权重的编码器-解码器(压缩比= 16)传递,然后通过一个sigmoid门给这两个池化的关注权重。将缩放后的输出加在一起,得到我们的全局特征聚合(GFA)块。
实验结果
针对不同架构的模型复杂性与性能
我们的模型在模型复杂性和准确性之间提供了很好的平衡(如ModelNet40数据集上所报告的)。我们的推理向前传递比PointNet++和PCNN方法要快得多,而且模型的大小也易于管理。
ShapeNet零件数据集上的零件分割结果
结论
我们提出了FatNet,一种用于3D点云处理的架构,采用特征注意和残差学习来实现基准点云分析任务的最新结果。我们假设特征关注层可以通过合并额外的关联上下文来提高性能。我们的想法通过FatNet在基准任务上的性能和一系列消融测试得到了验证。我们的体系结构对于随机点丢失是健壮的,并且在模型复杂性和性能之间提供了很好的平衡。我们的特征关注层是一个简单的新型性能增强,可以很容易地合并到任何现有的3D点云处理管道。
论文链接:https://arxiv.org/pdf/2104.03427.pdf
每日坚持论文分享不易,如果喜欢我们的内容,希望可以推荐或者转发给周围的同学。