极市沙龙|下周六CVPR2021论文线下研讨会邀你参会!坐标深圳
随着三月的到来,春暖花开,时隔一年,极市CV开发者沙龙活动要回归啦!今年线下活动的第一站,将在深圳举行,其他城市的小伙伴不要着急,下一站说不定就在你的城市,可以在评论区留言噢。
本次极市CV开发者沙龙活动主题为CVPR2021论文研讨会。我们邀请了三位CVPR2021接收论文作者,来分享他们的CVPR2021论文工作成果和心得,以促进开发者之间的学术交流。
CVPR会议是CV领域国际三大顶会之一,一直以来都受到广大CV开发者的关注。今年2021 CVPR论文接受结果已经公布。今年的论文有效投稿多达7500篇,1663篇论文被接收,接收率为23.7%。
+ + + +
活动信息
主题:2021 极市CV开发者沙龙第三期
----CVPR2021论文研讨会
时间:2021年3月27日 14:00-17:40
名额:40人
地点:深圳市南山区深圳湾生态科技园
参与方式:免费报名,先到先得
时间 |
内容 |
14:00-14:20 |
主持人开场 |
14:20-14:50 |
分享嘉宾:李铎 分享主题:CVPR 2021| Involution: Inverting the Inherence of Convolution for Visual Recognition (通过反转卷积的内在性质进行视觉识别) |
14:50-15:20 |
嘉宾现场答疑互动 |
15:20-15:50 |
分享嘉宾:顾津锦 分享主题: CVPR 2021| Interpreting Super-Resolution Networks with Local Attribution Maps(使用局部归因图理解和可视化超分辨网络) |
15:50-16:20 |
嘉宾现场答疑互动 |
16:20-16:50 |
分享嘉宾:戴志港 分享主题:CVPR 2021 oral| UP-DETR: Unsupervised Pre-training for Object Detection with Transformers ( UP-DETR:针对目标检测的无监督预训练transformer) |
16:50-17:20 |
嘉宾现场答疑互动 |
17:20-17:40 |
抽奖、自由讨论 |
17:40 |
活动结束 |
嘉宾
李铎
香港科技大学
顾津锦
悉尼大学
戴志港
华南理工大学
报名方式:
添加极小北微信,备注:极市分享会,工作人员会拉您入群噢。
为了保证活动的高质量交流,需要各位感兴趣参与的开发者,提前阅读分享的论文,并针对以上任一分享,提出您想问的问题,我们将对报名者进行审核,审核通过后即可免费参与。
+ + + +
报告概要:
1.分享嘉宾:李铎 香港科技大学
论文题目:Involution: Inverting the Inherence of Convolution for Visual Recognition
论文摘要:卷积作为现代神经网络中的核心构件,引发了深度学习技术在视觉领域的发展浪潮。在这篇工作中,我们重新思考了标准卷积核在空间维度和通道维度的固有特性,即空间不变性和通道特异性。与其相反地,我们通过反转以上的两个设计准则,提出了一种新颖的神经网络算子,称为“反转卷积”。另外我们解释了最近应用广泛的自注意力操作,并将其作为一种复杂的特例归入了“反转卷积”的范畴。我们提出的“反转卷积”算子可以作为基础模块替代普通卷积来搭建新一代的视觉神经网络,在不同的视觉任务中支持多种多样的深度学习模型,包括ImageNet图像分类,COCO目标检测和实例分割,Cityscapes语义分割。基于“反转卷积”的深度神经网络相较于ResNet-50对应的卷积神经网络模型,在上述任务中分别将识别准确率提升1.6%,边界框AP提升2.5%和2.4%,类别平均IoU提升4.7%,而将计算代价压缩到66%,65%,72%和57%。
相关视觉任务的源代码和预训练模型开放在:
https://github.com/d-li14/involution
论文地址:https://arxiv.org/abs/2103.06255
2.分享嘉宾:顾津锦 悉尼大学
论文题目:Interpreting Super-Resolution Networks with Local Attribution Maps.
论文摘要:得益于深度网络的发明,图像超分辨率(SR)技术得到了快速发展。但是公认的是,深度学习和深度神经网络很难解释。SR网络继承了这种神秘的本质,几乎没有作品试图去理解它们。在本文中,我们对SR网络进行了归因分析,目的是寻找对SR结果有重大影响的输入像素。我们提出了一种新颖的归因方法,称为局部归因图(LAM),该方法继承了积分梯度方法,但具有两个创新点。一种是将高斯模糊图像用作基线输入,另一种是采用渐进模糊函数作为路径函数。基于LAM,我们表明:(1)涉及的输入像素范围更广的SR网络可以实现更好的性能。(2)注意网络和非本地网络从更大范围的输入像素中提取特征。(3)与实际贡献的范围相比,对于大多数深度网络而言,感受野都足够大。(4)对于SR网络,具有规则条纹或网格的纹理更容易被注意到,而复杂的语义则难以利用。我们的工作为设计SR网络和解释底层视觉深度模型开辟了新的方向
论文地址:https://x-lowlevel-vision.github.io/lam.html
3.分享嘉宾:戴志港 华南理工大学
论文题目:UP-DETR: Unsupervised Pre-training for Object Detection with Transformers
论文摘要:利用transformer做目标检测,DETR通过直截了当的编解码器架构,取得了引人注目的性能。受自然语言处理中预训练transformer语言模型的影响,我们提出了一个适用于目标检测的无监督预训练任务。具体而言,给定图片,我们随机的从其中裁剪下多个小补丁块输入解码器,将原来输入编码器,预训练任务要求模型从原图中找到随机裁剪的补丁块。在这个过程中,我们发现并解决了两个关键的问题:多任务学习和多个补丁块的定位。1)为了权衡预训练过程中,检测器对于分类和定位特征的偏好,我们固定了预训练的CNN特征并添加了一个特征重构的分支。2)为了同时支持多补丁定位,我们提出了注意力掩码和洗牌的机制。实验中,无监督预训练可以显著提升DETR在下游VOC和COCO上目标检测的性能。
论文地址:https://arxiv.org/pdf/2011.09094
# CV技术社群邀请函 #