综述 | 三大路径,一文总览知识图谱融合预训练模型的研究进展
01
为什么要用知识图谱去增强预训练模型?
02
03
3.1 隐式融合——使用embedding在模型内部融合
ERNIE
KnowBERT
Projection to entity dimension (200); Mention-span pooling; Mention-span transform; Entity embedding pooling(attention-based); Entity link; Fusion(recontextualization); Inv-Projection;
KG-BART
知识的融合效果受knowledge embedding学习限制; 简单的变换未必能将知识空间与文本空间对齐; 该结构需要对预训练模型重新进行预训练,即使通用的KG+PTM预训练是可行的,针对特定领域的预训练或微调同样存在困难。
3.2 显式融合——不改变模型结构的融合方式
K-BERT
CoLAKE
3.3 知识图谱与预训练模型的共同学习
KEPLER
KEPLER的基本框架如下所示:
JAKET
同KEPLER一样,JAKET也将LM1视为共享的encoder,同时为了缓解循环依赖问题,LM2还具有额外的encoder LM2。同时,在基于KGE任务进行训练时,LM1是相对而言frozen的。 不同于KEPLER的是,知识图谱中实体的表示还是会被用来进行LM2的增强。
。
04
总 结
智源社区
继承学术出版严谨与系统,兼具新闻报道及时与多元;为内行搭建思想交流媒介,以事实启迪公众对AI认知
304篇原创内容
公众号
参考文献
ERNIE:Zhang, Zhengyan, et al. 'ERNIE: Enhanced language representation with informative entities.' arXivpreprint arXiv:1905.07129 (2019). knowBERT: Peters, Matthew E., et al.'Knowledge enhanced contextual word representations.' arXivpreprint arXiv:1909.04164 (2019). KG-BART:Liu, Ye, et al. 'KG-BART:Knowledge Graph-Augmented BART for Generative Commonsense Reasoning.' arXivpreprint arXiv:2009.12677 (2020). K-BERT:Washington, K., et al. KBERT.Knowledge Based Estimation of Material Release Transients. No. ESTSC-001257IBMPC00. Sandia National Labs., Albuquerque, NM(United States), 1995. Co-LAKE:Sun, Tianxiang, et al.'Colake: Contextualized language and knowledge embedding.' arXivpreprint arXiv:2010.00309 (2020). KEPLER:Wang, Xiaozhi, et al. 'KEPLER:A unified model for knowledge embedding and pre-trained language representation.' Transactions of the Association for ComputationalLinguistics 9 (2021): 176-194. JACKET:Yu, Donghan, et al.'Jaket: Joint pre-training of knowledge graph and language understanding.' arXiv preprint arXiv:2010.00796 (2020).
赞 (0)