ICLR 2020 | 浅谈 GNN:能力与局限

本文简要阐述三篇与此相关的文章,它们分别研究了基于信息传递的图神经网络 GNNmp 的计算能力,GNNs 的推理能力和阻碍 GCN 变深的问题---over-fitting 与 over-smoothing。

本文涉及的 3 篇 ICLR 原文:

  • What graph neural networks cannot learn: depth vs width

  • What Can Neural Networks Reason About?

  • DropEdge: Towards Deep Graph Convolutional Networks on Node Classification

图数据在现实世界中广泛存在,图神经网络(GNNs)也在相关的机器学习任务中取得了不错的效果,但简单地“将数据给模型、希望其拟合出来可以得到预期结果”的一整套函数在某种程度上是不负责任的。更好地理解 GNNs 适合与不适合哪些问题可以帮助我们更好地设计相关模型。本文简要阐述三篇与此相关的文章,它们分别研究了基于信息传递的图神经网络 GNNmp 的计算能力、GNNs 的推理能力和阻碍 GCN 变深的问题---over-fitting 与 over-smoothing。
What graph neural networks cannot learn: depth vs width

机器学习中一个很基础的问题是判断什么是一个模型可以学习和不能学习的。在深度学习中,已经有很多工作在研究如 RNNs、Transformers 以及 Neural GPUs 的表现力。我们也可以看到有工作在研究普遍意义上的 GNNs 相关的理论,如以图作为输入的神经网络。普遍性的表述使得我们可以更好地研究模型的表现力。

理论上,给定足够的数据和正确的训练方式,一个这种架构下的网络可以解决任何它所面对的任务。但这并不应该是一切,只是知道”一个足够大的网络可以被用来解决任何问题”无法使我们合理地设计这个网络,而另一方面,我们需要通过研究他们的局限来获取更多关于这个模型的认知。

本文研究了基于信息传递的图神经网络 GNNmp 的表达能力,包括 GCN、gated graph neural networks 等,并回答了如下问题:

(1)什么是 GNNmp 可以计算的?

本文证明了在一定条件下,GNNmp 可以计算任何可以被图灵机计算的函数。这个证明通过建立 GNNmp 和 LOCAL 之间的关系来实现。而 LOCAL 是一个经典的分布式计算中的模型,本身是具有图灵普遍性的。简言之,GNNmp 如果满足如下的几个较强的条件,即具有足够多的层数和宽度、节点之间可以相互区分,即被证明是普遍的。

(2)什么是 GNNmp 不可以计算的?

本文证明了如果乘积 dw 被限制,GNNmp 的能力会损失很大一部分。具体的,本文对于以下的几个问题展示了 dw 的下限,即检测一个图中是否含有一个指定长度的环,确认一个子图是否是联通的、是否包含环、是否是一个二分图或是否具有哈密顿回路等。

本文展现了 GNNmp 在和合成数据上的实验结果,选取 4-cycle 分类问题,即将图根据它们是否包含有 4 个节点的回路来将其分类的问题来检验 GNNmp 的能力,目的在于验证 GNNmp 的 dw 乘积,节点数 n 和 GNNmp 解决问题的能力之间的关系。

What Can Neural Networks Reason About?

近来,有很多关于构建可以学会推理的神经网络的尝试。推理任务多种多样,如视觉或文本问答、预测物体随时间的演化、数学推理等。神奇的是那些在推理任务中表现较好的神经网络通常具有特定的结构,而很多成功的模型均采用 GNN 的架构,这种网络可以显示的建模物体两两之间的关系,并可以逐步的通过结合某个物体和其它物体的关系来更新该物体的表示。同时,其他的模型,如 neural symbolic programs、Deep Sets 等,也都可以在特定问题上取得较好的效果。但是关于模型泛化能力和网络结构之间关系的研究仍然较少,我们自然会问出这样的问题:怎样的推理任务可以被一个神经网络学习到?这个问题的回答对我们如何理解现有模型的表现力和其局限性至关重要。本文通过建立一个理论框架来回答这个问题,我们发现如果可以在推理问题和网络之间建立良好的对应关系,那么这个问题可以被很好地解决。

例如,在 Bellman-Ford 算法求解任意两点间最短路径的问题上,虽然可以证明 MLP 可以表示任何 GNN 可以表示的函数,但 GNN 的泛化能力更强,而后者决定了 GNN 的效果更好,或者说,GNN 学到了如何去推理。究其原因,GNN 可以通过学习一个很简单的步骤,即该算法中的松弛过程,来很好地模拟 Bellman-Ford 算法,而与此相对应地,MLP 却必须去模拟整个 for 循环才可以模拟 Bellman-Ford 算法。

DropEdge: Towards Deep Graph Convolutional Networks on Node Classification

GCNs 在图的很多任务上取得了 SOTA 的表现,如节点分类,社交推荐,关联预测等,而 over-fitting 和 over-smoothing 是两个阻碍 GCNs 在节点分类等任务上进一步发展的问题。

over-fitting 来源于使用一个具有过多参数的模型去拟合一个受限的训练集数据分布,其削弱了模型的泛化能力,而 over-smoothing 则是另一个极端,它指的是因为图卷积操作将一个节点和它邻居的特征向量混合起来,从而在有限步之后所有节点的表示都会收敛到一个相同的值的现象,这同时也会导致梯度消失,直接使得我们无法构建比较深的 GCNs,实际上经典的 GCNs 是比较浅的。受启发于深层的CNNs在图像分类任务上的良好表现,我们也希望探索在节点分类任务上如何可以建构出深层的 GCNs。通过探索这两个阻碍 GCNs 变深的因素---over-fitting 与 over-smoothing,本文提出了 DropEdge,可以同时缓解如上的两个问题,一方面,它可以看做是一种无偏的数据增强方式,通过随机地将原图变形,可以增加输入数据的多样性,从而可以缓解 over-fitting 的现象;另一方面,它可以减少信息在节点间传递,使得节点之间的连接更加稀疏,从而可以一定程度上避免 over-smoothing。

我们在四个数据集上验证 DropEdge 的效果,说明其可以提高 GCNs 的表现里并确实具有防止 over-smoothing 的作用。

更多 ICLR 论文话题,可通过微信“Moonnn01”加入 ICLR 2020 交流群讨论。

(0)

相关推荐

  • ICML''20 通过图稀疏化来提升GNN的鲁棒性

    fig0 论文标题:Robust Graph Representation Learning via Neural Sparsification 作者:Cheng Zheng; Bo Zong; We ...

  • 从4大顶会看GNN预训练技术进展

    论文推荐 /introduction/ 机器学习的成功很大程度上取决于数据.但是,高质量的标记数据通常很昂贵且难以获得,尤其是对于训练参数较多的模型.而我们却可以很容易地获取大量的无标记数据,其数量可 ...

  • 万字综述,GNN在NLP中的应用,建议收藏慢慢看

    来自:图与推荐 今天为大家解读的是由京东硅谷研发中心首席科学家吴凌飞博士等研究者最新发表的GNN for NLP综述,几乎覆盖了围绕NLP任务的所有GNN相关技术,是迄今为止GNN for NLP领域 ...

  • 中科院计算所沈华伟:图卷积神经网络的思想起源

    智源社区 & AI科技评论 作者 | 周寅张皓 小到分子相互作用,物质结构,大至气候变化,星系模型,很多自然界和社会生活中的现象都能用图结构描述.而如何将神经网络应用到图网络中进行计算,在几年 ...

  • 一文了解推荐系统中的图神经网络

    © 作者|杨晨 机构|中国人民大学高瓴人工智能学院硕士 研究方向 | 推荐系统 本文主要介绍推荐系统中的图神经网络,欢迎交流探讨! 引言:近年来,GNN技术由于其在图数据学习方面的出色表现,在许多领域 ...

  • 关联图神经网络与结构因果模型

    仅做学术分享,如有侵权,联系删除 转载于 :专知 图神经网络与因果推理是当下大家关注的焦点,GNN有强大的图结构建模表达能力,因果推理旨在探究因果关系结构,如何将两者联系起来是一个挑战性的问题?来自T ...

  • AAAI 2021 |图模型相关工作——数据扩充;近似梯度下降;解决灾难性遗忘问题

    点击上方 蓝字关注我们 本文介绍三篇AAAI2021最新的研究工作,下面的三篇论文均与模型的设计相关,具体的任务涉及节点分类和图分类. Data Augmentation for Graph Neur ...

  • 浅谈化繁为简能力,站在不同角度截然相反

    首先我先声明一下,我每天写文章时间差不多三个小时,任何人可以阅读.转载.收藏.但是如果你抄袭.复制.冒充成自己写的那就犯法了. 现在的网络世界也不是法外之地,别人原创的东西又不是你脑子里的,单纯复制抄 ...

  • 浅谈审计能力提升的十八个方面

    一.发现问题的角度及若干方面 1.用现象发现问题,诸如观察.盘点.物理检查等角度: 2.用数据发现问题,诸如复算.占比.趋势等方面: 3.用感觉发现问题,诸如资料提供拖延,找借口.沟通遮遮掩掩,不痛快 ...

  • 浅谈创新能力的培养

    (此文发表于<上海教育>杂志2019年11B期上) 纵观世界发展史,人类的所有文明成果,都是创新思维的果实,都是创新智慧的结晶.创新对于一个民族.对于一个国家发展的重要性是不言而喻的,也是 ...

  • 浅谈写作能力的培养方法

    本文是由一名语文老师编写的作文写作类论文,笔者认为同样适合于诗词创作,故摘录于此: 提高写作能力具体有四个方面:写作能力,包括①立意能力,能通过对客观事物的观察.分析.和归纳,把其中包含的意思加以提炼 ...

  • 高速发展,营销多样,浅谈韩国2020年军售情况

    近年来,韩国的国防工业投入增长速度远远快于该地区的平均水平,因为随着韩国所面临的威胁和安全挑战的增加,韩国国防部的国防预算支出也有所增加. 到2020年,韩国的国防预算总额已经宣布为406.9亿美元, ...

  • 崔银松:浅谈如何运用数学课堂培养高中生的逻辑推理能力

    发<中国教师> 21年4月刊 浅谈如何运用数学课堂培养高中生的逻辑推理能力-----胡阳新推荐 湖北省利川市第五中学    崔银松     邮编:445400 摘要:在新课程改革背景下,高 ...

  • 浅谈蒋发实战能力,曾参加义军纵横沙场,乃6派太极共同祖师

    纵览我国传统武术历史那将近4200余年光阴之中,太极拳绝对称得上是一门知名度极高的拳种流派了.太极拳在其漫长的历史传承和发展之下,其中不仅分枝演变出了许多拳术风格迥异的细分流派,同时也涌现出了一代又一 ...

  • 浅谈刘奇兰实战能力,十二形中龙形最精,技艺达拳无拳意无意之境

    纵览我国形意拳一脉传承至今这段源远流长的历史,其中李洛能先生可谓是形意门中一位里程碑式的重要人物.他老人家所创的形意拳术,无论是三体式桩功和五行拳,还是众所周知的十二形拳皆为形意门人必修之基本. 刘奇 ...

  • 浅谈健身场馆店长应具备的三大能力

    在与健身场馆老板日常的沟通中,听到最多的反馈莫过于--缺人. 缺好教练,缺好店长,缺优秀经理人. 如果说新教练是一张白纸,花一定时间可以涂成想要的颜色,那么管理人才则是百里挑一.可遇不可求的存在,并且 ...