卷积网络压缩中的知识蒸馏综述

人工智能算法与Python大数据

致力于提供深度学习、机器学习、人工智能干货文章,为AI人员提供学习路线以及前沿资讯
22篇原创内容
公众号

点上方人工智能算法与Python大数据获取更多干货

在右上方 ··· 设为星标 ★,第一时间获取资源

仅做学术分享,如有侵权,联系删除

转载于 :计算机科学与探索,专知

近年来,卷积神经网络(CNN)凭借强大的特征提取和表达能力,在图像分析领域的诸多应用中取得了令人瞩目的成就。但是,CNN性能的不断提升几乎完全得益于网络模型的越来越深和越来越大,在这个情况下,部署完整的CNN往往需要巨大的内存开销和高性能的计算单元(如GPU)支撑,而在计算资源受限的嵌入式设备以及高实时要求的移动终端上,CNN的广泛应用存在局限性。因此,CNN迫切需要网络轻量化。目前解决以上难题的网络压缩和加速途径主要有知识蒸馏、网络剪枝、参数量化、低秩分解、轻量化网络设计等。首先介绍了卷积神经网络的基本结构和发展历程,简述和对比了五种典型的网络压缩基本方法;然后重点针对知识蒸馏方法进行了详细的梳理与总结,并在CIFAR数据集上对不同方法进行了实验对比;其后介绍了知识蒸馏方法目前的评价体系,给出多类型方法的对比分析和评价;最后对该技术未来的拓展研究给出了初步的思考。

http://fcst.ceaj.org/CN/abstract/abstract2907.shtml

---------♥---------

(0)

相关推荐

  • 2019年上半年收集到的人工智能深度学习方向干货文章

    2019年上半年收集到的人工智能深度学习方向干货文章 随机森林VS神经网络:哪个更好? 深度学习--感知机讲解 深度学习NN.CNN.RNN.和DNN你了解吗? 手工计算深度学习模型中的参数数量 使用 ...

  • 深度学习中目标检测

    该部分内容出自书<21个项目玩转深度学习:基于TensorFlow的实践详解>,有需要的同志可以关注我的公众号,加入下发的群,在群公告中有附网盘,可以自取(仅供学习使用).如果失效可以联系 ...

  • 【完结】AI1000问以后知识星球和B站见啦

    学习从来都是从大处着眼,小处着手.前段时间公众号开通了专栏<AI 1000问>,专门选择那些很小,容易被忽视,普通但是不简单,可以引申很多思考的问题,得到了大家的喜欢,现在已经12期了. ...

  • 利用tensorflow搭建一个两层CNN网络 | 【看完就会】

    " 大家对CNN的理解应该了解和学习了很多,所以今天来跟大家一起用tensorflow搭建一个简单两层CNN网络" 简单说明一下CNN的特点: (1)局部连接(2)权值共享(3)池 ...

  • 几经沉浮,人工智能(AI)前路何方?

    人工智能将和电力一样具有颠覆性 .                                                      --吴恩达 如同蒸汽时代的蒸汽机.电气时代的发电机.信息时 ...

  • 【思考】谁是我们的老师?

    前天,冯老师在自己的网课上,点评了一位学生的作业,该学生用了一个不是中学生应该掌握的单词,同时该生的成绩并不太优秀,这就说明该学生依靠网上搜索而获得的答案. 到底学生该不该上网搜索答案?我思考了两天, ...

  • 2019年上半年收集到的人工智能卷积神经网络干货文章

    2019年上半年收集到的人工智能卷积神经网络干货文章 了解CNN这一篇就够了--关于卷积神经网络的介绍 关于卷积的6个基本知识 一文读懂深度学习中的各种卷积 CNN卷积神经网络的三种基本模式(不懂的话 ...

  • 也谈未来智能领域的发展趋势

    人类的学习能够产生范围不确定的隐性的知识和规则,在实践中,人类的智能也可以被描述为:在现有知识体系之外创造新的知识和技能并解决问题的能力,尤其是能够解决带有矛盾的难题能力.人工智能的基础是样本和逻辑, ...

  • 深度学习中的知识蒸馏技术(下)

    本文概览: 写在前面: 这是一篇介绍知识蒸馏在推荐系统中应用的文章,关于知识蒸馏理论基础的详细介绍,请看上篇文章: 1. 背景介绍 1.1 简述推荐系统架构 如果从传统角度来看实际的工业推荐系统,粗略 ...

  • 深度学习中的知识蒸馏技术

    本文概览: 1. 知识蒸馏介绍 1.1 什么是知识蒸馏? 在化学中,蒸馏是一种有效的分离不同沸点组分的方法,大致步骤是先升温使低沸点的组分汽化,然后降温冷凝,达到分离出目标物质的目的.化学蒸馏条件:( ...

  • 深度学习中的知识蒸馏技术(上)

    本文概览: 1. 知识蒸馏介绍 1.1 什么是知识蒸馏? 在化学中,蒸馏是一种有效的分离不同沸点组分的方法,大致步骤是先升温使低沸点的组分汽化,然后降温冷凝,达到分离出目标物质的目的.化学蒸馏条件:( ...

  • 给Bert加速吧!NLP中的知识蒸馏Distilled BiLSTM论文解读

    来自:ChallengeHub 论文题目:Distilling Task-Specific Knowledge from BERT into Simple Neural Networks 论文链接:h ...

  • 【AI不惑境】模型压缩中知识蒸馏技术原理及其发展现状和展望

    大家好,这是专栏<AI不惑境>的第十一篇文章,讲述知识蒸馏相关的内容. 进入到不惑境界,就是向高手迈进的开始了,在这个境界需要自己独立思考.如果说学习是一个从模仿,到追随,到创造的过程,那 ...

  • 复杂模型该如何上线?知识蒸馏在推荐系统中的应用

    转载自:炼丹笔记 作者:张俊林@新浪微博 目录 知识蒸馏典型方法 知识蒸馏在推荐系统中的三个应用场景 知识蒸馏在三类推荐排序中的方法介绍 联合训练召回.粗排及精排模型的设想 前言 随着深度学习的快速发 ...

  • 超全高中数学知识网络框架图归纳总结,寒假预习/复习必备!

    开篇有益 超全高中数学知识网络框架图归纳总结,寒假预习/复习必备!

  • 【模型压缩】深度卷积网络的剪枝和加速(含完整代码)

    " 记录一下去年12月份实验室的一个工作:模型的剪枝压缩,虽然模型是基于yolov3的魔改,但是剪枝的对象还是CBL层(即Conv Layer + BN Layer + LeakyReLU ...

  • 深度学习中的3个秘密:集成,知识蒸馏和蒸馏

    仅做学术分享,如有侵权,联系删除 转载于 :作者:Zeyuan Allen-Zhu 编译:ronghuaiyang 导读 训练好的模型,用自己蒸馏一下,就能提高性能,是不是很神奇,这里面的原理到底是什 ...