新星涌现!ICLR 2020 华人学者交出亮眼“成绩单”
史上首次在非洲举行的 AI 线上顶会——ICLR 2020 将于今日于埃塞俄比亚首都亚斯亚贝巴正式开幕。
来自机器学习领域的众多大牛,诸如机器学习泰斗、美国三院院士 Michael I. Jordan,“卷积网络之父”Yann LeCun、Facebook 人工智能研究院(FAIR)首席科学家 Devi Parikh 等都将带来多场特邀线上报告,大家拿好小板凳坐等收看哦!
ICLR 2020 上华人表现亮眼
近日,AMiner 发布的 ICLR 八年以来论文被引量最高的 50 名华人学者榜单,受到了众多好评。有人评论:看到了那么多华人作者,看到众多中国高校与世界名校并列,令人激动!
感慨于中国力量在人工智能领域的快速崛起,而这股力量也早已经从工业界延伸到了学术界。
今天再来看看 ICLR 2020 上华人学者的表现究竟如何?
在 ICLR 2020 论文入选的 2566 位作者中,共有 655 位华人学者,其中有 2 人发表 7 篇论文,1 人发表 6 篇,1 人发表 5 篇,5 人入选 4 篇,17 人入选 3 篇,101 位入选 2 篇论文。
其中一作华人学生共有 212 人。以一作身份发表 3 篇论文的有 1 人,发表 2 篇的共有 8 人。
在这些华人作者中,有少部分是已经卓有名气的学术大咖,而更多的是涌现出的学术新星。
下图为入选 3 篇以上的华人学者。
ICLR 2020 上的华人明星
我们来详细看看 ICLR 2020 发文 4 篇以上的华人学者都有哪些呢?
朱军
朱军教授此次共有 7 篇论文入选,与宋乐并列于 ICLR 2020 华人贡献榜首位。
他是清华大学计算机系的教授、智能技术与系统国家重点实验室副主任。他在清华大学获得计算机学士和博士学位,之后在卡内基梅隆大学做博士后,2011 年回清华任教。2013 年,朱军曾入选 IEEE Intelligent Systems 的“人工智能 10 大新星”(AI’s 10 to Watch)。他的研究领域主要为机器学习、数据挖掘、非参数化贝叶斯方法、最大间隔学习等,已连续多年在机器学习顶级国际会议和期刊 ICML、NeurIPS、JMLR、PAMI 等发表论文 100 余篇。
入选论文:
Lazy-CFR: fast and near-optimal regret minimization for extensive games with imperfect information
Mixup Inference: Better Exploiting Mixup to Defend Adversarial Attacks
Rethinking Softmax Cross-Entropy Loss for Adversarial Robustness
SUMO: Unbiased Estimation of Log Marginal Probability for Latent Variable Models
SVQN: Sequential Variational Soft Q-Learning Networks
To Relieve Your Headache of Training an MRF, Take AdVIL
Posterior sampling for multi-agent reinforcement learning: solving extensive games with imperfect information
宋乐
宋乐是佐治亚理工学院计算科学与工程系终身副教授,机器学习中心副主任。他从悉尼大学和 NICTA 获得机器学习博士学位,在卡内基梅隆大学读完博士后,曾加入 Google 的机器学习部门从事研究工作。他的主要研究方向主要包括核函数和深度学习的嵌入方法,机器学习的大规模算法和高效系统以及静态和动态网络分析等等。他曾获得过多项机器学习顶级国际奖项,包括 NIPS’17 机器学习与材料科学研讨会最佳论文奖,Recsys'16 深度学习与推荐系统研讨会最佳论文奖等。
入选论文:
Efficient Probabilistic Logic Reasoning with Graph Neural Networks
GLAD: Learning Sparse Graph Recovery
Hoppity: Learning Graph Transformations to Detect and Fix Bugs in Programs
Learn to Explain Efficiently via Neural Logic Inductive Learning
Learning to Plan in High Dimensions via Neural Exploration-Exploitation Trees
RNA Secondary Structure Prediction By Learning Unrolled Algorithms
王立威教授在清华大学取得本科和硕士学位,在北京大学数学学院获博士学位。自2005 年起在北京大学信息学院任教。他的主要研究兴趣为机器学习理论,在机器学习顶级会议 NeurIPS、COLT、ICML 和顶级期刊 JMLR、 PAMI 发表论文 60 余篇。其中 2008 年发表于机器学习理论最高会议 COLT 的论文 On the Margin Explanation of Boosting Algorithms 是中国大陆学者在该会议上的首篇论文。他于 2010 年入选 AI’s 10 to Watch,是首位获得该奖项的亚洲学者。
入选论文:
Distributed Bandit Learning: Near-Optimal Regret with Efficient Communication
Learning to Group: A Bottom-Up Framework for 3D Part Discovery in Unseen Categories
MACER: Attack-free and Scalable Robust Training via Maximizing Certified Radius
Nesterov Accelerated Gradient and Scale Invariance for Adversarial Attacks
Q-learning with UCB Exploration is Sample Efficient for Infinite-Horizon MDP
Robust Local Features for Improving the Generalization of Adversarial Training
冯佳时,现任新加坡国立大学电子与计算机工程系助理教授,机器学习与视觉实验室负责人。中国科学技术大学自动化系学士,新加坡国立大学电子与计算机工程系博士,曾在加州大学伯克利分校人工智能实验室做博士后研究。现研究方向为图像识别、深度学习及面向大数据的鲁棒机器学习。他曾获 ICCV’2015 TASK-CV 最佳论文奖,目前已在计算机视觉、机器学习领域顶会及期刊发表论文 60 余篇。
入选论文:
Decoupling Representation and Classifier for Long-Tailed Recognition
Neural Epitome Search for Architecture-Agnostic Network Compression
On Robustness of Neural Ordinary Differential Equations
Query-efficient Meta Attack to Deep Neural Networks
ReClor: A Reading Comprehension Dataset Requiring Logical Reasoning
顾全全目前是加州大学洛杉矶分校计算机科学的助理教授,统计机器学习实验室的负责人。他本科、硕士都就读于清华大学,在伊利诺伊大学香槟分校获得计算机科学博士学位,师从数据挖掘领域的泰斗韩家炜教授;先后担任普林斯顿大学博士后、美国弗吉尼亚大学助理教授。他的研究方向是统计机器学习,重点是开发和分析机器学习的非凸优化算法等。他曾获得过美国国家科学基金会颁发的“杰出青年学者成就奖”。
瑞士洛桑联邦理工计算机与通信科学学院的三年级博士生 Tao Lin,以一作身份发文三篇。Tao Lin 本科毕业于浙江大学,在洛桑理工学院获得通信系统专业硕士学位。他的研究兴趣主要在于分布式机器学习/深度学习、机器学习和优化和表象学习。
想要查看更多学者的详细信息,可以移步 AMiner 会议智图开放平台 ICLR 2020 专题全析图(www.aminer.cn/conf/iclr2020/),其内容包括论文、作者、华人学者、一作华人学生、论文 PPT 和视频等多维分析服务,是参会学者的会议智能助理。
近期精彩集锦(点击蓝色字体跳转阅读):