NeurIPS2020 | 图信息Bottleneck打造图最优表示->避免过拟合,并具备稳健性
本文属性看完一遍不知道在说什么系列,也属于先收藏后续重复读系列。 对于图结构数据而言,什么是「优」的表示?斯坦福研究者对此进行了重新思考,并提出学习稳健图表示的信息论原则——图信息瓶颈 (GIB)。研究者基于该原则构建了两个 GNN 模型:GIB-Cat 和 GIB-Bern,二者在抵御对抗攻击时取得了优异的性能。
论文地址:https://arxiv.org/pdf/2010.12811.pdf 项目地址:http://snap.stanford.edu/gib/ GitHub 地址:https://github.com/snap-stanford/gib
首先,之前利用 IB 的模型假设数据集中的训练样本是独立同分布的 (i.i.d.)。对于图结构数据而言,该假设不成立,因此按照 IB 原则训练模型较为困难; 此外,结构信息对于表示图结构数据是必不可少的,但此类信息比较分散,因而很难进行优化。如何恰当地建模和从图结构中提取最少充足信息带来了另一项挑战。
赞 (0)