ACL 2020 | RikiNet: 阅读维基百科页面进行自然问答(彩蛋!作者分享了PPT)

论文标题:RikiNet: Reading Wikipedia Pages for Natural Question Answering
(点击 https://www.aminer.cn/pub/5eabf34391e011664ffd2872?conf=acl2020,可以看到作者分享的PPT)
作者:Dayiheng Liu,Yeyun Gong,Jie Fu,Yu Yan,Jiusheng Chen,Daxin Jiang,Jiancheng Lv,Nan Duan.
机构:四川大学,微软研究院,蒙特利尔理工大学

收录会议:ACL 2020

阅读长文档进行开放域问题回答是自然语言理解领域的一个挑战。针对 Google 的 Natural Question 任务,本文提出了一个新的模型称为 RikiNet(意为 Reading Wikipedia 的神经网络模型),阅读维基百科的整个页面进行自然问答。RikiNet 的单模型首次在 Natural Question 上双指标超过单人类,其集成模型提交时在 Natural Question Leaderboard 取得了双指标第一名。

Google Natural Question任务

随着机器阅读理解模型和问答模型的发展,越来越多的模型性能在多个数据集上超过了人类。Google Natural Question(NQ)于 19 年被提出,为开放域问答提出了新的挑战。如图 1 所示,该任务给定一个用户在 Google 搜索引擎中输入的自然问题,以及与该问题最匹配的维基百科页面,要求模型预测出回答该问题的长答案(即该页面中的某一个段落)和短答案(即某一个 answer span),以及是否存在长答案或短答案。

图1 Google Natural Question的数据样例

左上角为问句,左下角为相关的维基百科页面,右上角为该问句的长答案,右下角为该问句的短答案

RikiNet 模型结构

如图 2 所示,RikiNet 模型由两部分组成:
(1)动态的段落双重注意力阅读器(Dynamic Paragraph Dual-attention Reader, DPDA reader),通过利用一系列互补的注意力机制和预训练语言模型对文档和问句进行编码,以得到上下文相关的问句表示,token-level 和 paragraph-level 的文档表示。
(2)多层级的级联答案预测器(Multi-level Cascaded Answer Predictor,MCAP),利用 DPDR 输出的多层级表示,以级联的结构依次预测长答案、短答案和答案类型。
图2 RikiNet模型结构

具体来说,DPDA reader 首先使用预训练语言模型获得问句和文档的上下文表示,再通过多层 DPDA Block 对问句和文档进一步建模。每一个 DPDA Block 分别对问句进行自注意力机制建模,对文档进行段落动态自注意力机制建模。其中,段落动态自注意力机制由两个自注意力掩码矩阵叠加组成:a. 段落掩码,使得当前 token 只与相同段落的 token 执行注意力交互,以生成段落级别的表示。b.动态掩码,由掩码预测器动态产生掩码矩阵,使自注意力机制更关注于重要的信息。在得到词级别的表示后,我们将位于相同段落的 token 通过池化操作得到相应的段落表示,并通过池化操作得到问句表示、文档表示。

上述多层级的表示将通过 MCAP 以级联的方式依次预测长答案,短答案起始位置,结束位置和答案类型,该级联的方式能够充分利用不同答案的预测信息,以完成 NQ 任务的多个目标。

实验结果

我们将基于 BERT 和 RoBERTa 的 RikiNet 模型与之前的模型进行比较,包括 IBM AI,Google AI 在 NQ 任务上提出的模型。如表 1 所示,我们的单模型首次在长答案(LA)和短答案(SA)的 F1 分数上超过单人类,并且集成模型在提交时取得了 NQ leaderboard 双指标第一名。

表1 NQ数据集模型结果

我们进一步对模型进行 ablation study。首先在保留 BERT 的情况下对 DPDA reader 进行分析和实验,包括去除相应的注意力机制、block 层数、动态注意力词数,结果如表 2 上所示。同时我们也对 MCAP 进行了进一步的消融实验,并比较了不同的预测层和级联顺序,结果如表 2 下所示。

表2 消融实验结果
更多ACL 2020论文请点此查看(https://www.aminer.cn/conf/acl2020/papers?s=al)
(0)

相关推荐

  • 高考英语听说考试小贴士(角色扮演)

    同学萌,这一期我们来看看高考英语听说考试的第二部分: Part two-Role Play 角色扮演?一般是什么角色呢?没错!就是扮演Tom 或 Mary~(有点像写作中的假定你是李华,都是套路). ...

  • DeepMind开源的AlphaFold怎么用?打开Colab就能在线用

    机器之心报道 机器之心编辑部 借助 Colab,你可以在线使用 AlphaFold 的一个简化版本. 前段时间,<自然>杂志刊登了 DeepMind 的两篇论文,介绍了该公司在蛋白质结构预 ...

  • 如何构建高质量的 QA 问答知识库

    NLP 技术落地最普遍的场景就是智能客服,如阿里的"小蜜",京东的"JIMI"等等.NLP 技术也广泛应用于搜索系统.无论是"智能客服",还 ...

  • Facebook刷新开放域问答SOTA:模型训模型!Reader当Teacher!

    一部问答系统发展史就是一部人工智能发展史.早在1950年的图灵测试就提出:如果人类无法通过问答将机器和人区分开,那么这个机器就可以被认为具有智能.问答系统和人工智能有着密不可分的关系.从基于规则和结构 ...

  • 讲课中的提问艺术

    提问在教学行为中有很重要的作用.学问,学问,无论是教还是学,关键就在这个"问"字上.问,是个法宝.它是深入的阶梯,是长进的桥梁,是触发的引信,是觉悟的契机,所以,历来教育家都很重视 ...

  • 十大最令人毛骨悚然的维基百科页面,恐怖慎入!

    https://m.toutiao.com/is/e8SEQY5/ 乔伊斯·文森特 这不仅是最令人毛骨悚然的维基页面之一,也是其中最悲伤的一个.乔伊斯·文森特在2006年发现死于她的公寓内,但令人毛骨 ...

  • ACL 2019 | 利用主题模板进行维基百科摘要生成

    作者:Laura Perez-Beltrachini, Yang Liu, Mirella Lapata (爱丁堡大学) 论文原文:https://arxiv.org/pdf/.pdf 论文背景 生成 ...

  • 阅读 - 搜狗百科

    语言添加义项同义词收藏分享阅读编辑词条 阅读是运用语言文字来获取信息,认识世界,发展思维,并获得审美体验的活动.它是从视觉材料中获取信息的过程.视觉材料主要是文字和图片,也包括符号.公式.图表等.阅读 ...

  • 中文维基百科了一下德日进

    德日进 皮埃尔·泰亚尔·德·夏尔丹(法语:Pierre Teilhard de Chardin,法语发音:[pjɛʁ tejaʁ də ʃaʁdɛ̃],1881年5月1日-1955年4月10日),汉名 ...

  • 书旗小说发布2020年度阅读报告,90后作家占据半壁江山

    近日,书旗小说发布了<2020年度阅读报告>,"马甲团宠"."新奇脑洞"等标签作品更受读者喜爱,"系统"."脑洞&qu ...

  • 凯莱英2020年报阅读 周末花了点时间,看了下凯莱英的2020年报,还是一如既往的稳定,我做个简单的...

    凯莱英2020年报阅读 周末花了点时间,看了下凯莱英的2020年报,还是一如既往的稳定,我做个简单的数据摘要吧. 一.基本情况 (一)行业基本情况 CRO行业真是持续处于高度景气的赛道,凯莱英年报显示 ...

  • 维基百科今天迎来20岁生日 各项线上线下活动正在举行

    '在一个信息日益商品化的世界里,维基百科的模式一直建立在知识属于全人类的信念上,'维基百科创始人吉米·威尔士说.'维基百科迫使我们走出我们的回声室,并争论对世界的共同理解.毕竟,无论你是谁,无论你在世 ...

  • 2020年阅读展望

    这是施洛斯008的第79篇文章,欢迎阅读! 准备逐步放弃虚构读物,虚构读物作为我的补充,只是一种娱乐方式,还有电视剧我也准备放弃了,太耗时间,对我的世界观和人生观基本没有加深,反而浪费了大量时间. 小 ...

  • 100多个认知偏差,来自己维基百科

    决策.信念与行为偏误 这些偏误多半会影响信念的形成.商业与经济决策.以及其他一般的人类行为.它们是可复制与再现的,面临特定情境时,一般可预期人们会有相应的偏差倾向. 名称原文描述 不明确性效应或厌恶不 ...