超越SiamRPN++,SiamMan达到目标跟踪新SOTA


今天arXiv上新出论文 SiamMan: Siamese Motion-aware Network for Visual Tracking,提出的目标跟踪算法 SiamMan 在几大数据集上精度超越了SiamRPN++,GPU上运行速度可达到45fps。

以下为作者信息:

SiamMan算法架构图如下:

使用孪生网络提取特征,后接分类、回归和定位三个分支。分类分支用于区分前景和背景,回归分支用于回归目标的边界框。比较特别的是,为了减少手动设计的锚框适应不同目标运动模式的影响,设计了定位分支,该分支旨在粗略地定位目标,以帮助回归分支生成准确的结果。

同时,SiamMan将全局上下文模块引入到定位分支中,以捕获视频远程依赖关系,从而在目标大位移时具有更高的鲁棒性。

此外,SiamMan设计了一个多尺度的可学习注意力模块,以指导这三个分支利用判别功能获得更好的性能。

实验结果

作者在几个跟踪数据集上与state-of-the-art算法的精度比较:

EAO综合了精度和鲁棒性,该文提出的算法超过了所有之前的算法。SianMask、SiamMask_E因为使用了分割结果拟合目标包围框,所有Accuracy略高,但整体上SiamMan效果更好。

SiamMan都取得了更好的结果。

论文地址:

https://arxiv.org/pdf/1912.05515v1.pdf

代码地址:

https://isrc.iscas.ac.cn/gitlab/research/siamman

(作者称论文被录用后,代码将开源)


目标跟踪交流群

(0)

相关推荐