复旦大学黄萱菁:自然语言处理中的可理解分析

2020年11月6日,“第五届语言与智能高峰论坛”以线上直播的形式召开。本次论坛由中国中文信息学会和中国计算机学会主办,邀请到了周明、黄萱菁等多位国内外学界和业界翘楚作报告。
首届“语言与智能高峰论坛”于 2016 年在北京举行,每年举行一次,至今已成功举办四届。社会对于代表着“未来”、“高科技”、“前沿领域”的人工智能一直有着一个期望——“让机器理解人类语言”,对于这个行业的研究现状与未来趋势也有着诸多好奇。

“语言与智能高峰论坛”旨在向社会公众介绍语言与智能的前沿动态和创新成果,推动我国相关领域快速发展。论坛邀请国内外资深学者担任特邀讲者,设立青年科学家论坛、圆桌讨论和技术评测论坛,就语言与智能的前沿课题进行思想碰撞与深度交流。

复旦大学的黄萱菁教授针对深度学习推广中的可理解性和可解释性问题做了报告。以下为学术君根据演讲实录整理的文稿,略有删减——

自然语言处理中的可理解分析

自然语言处理中的可理解性是指我们希望对学习系统有更多的了解,主要包括三点内容:一是理解模型部件内部的功能属性;二是解释其行为的预决策行为;三是对系统进行诊断,判断其优缺点。

为什么要做可理解分析呢?黄萱菁教授指出,深度学习把我们从特征挖掘时代带到了结构工程时代,但是也带来了新的问题——“如何选择适配特殊任务特殊数据集的结构?”可理解分析可以增加模型的可信赖性;可以判断模型是否过拟合;可以指出模型不足,便于继续优化。正是这些作用,所以我们需要继续优化运用它。

这两张图展示的是,涉及到 interpret ability,explanation这两个关键词,过去若干年被录用的会议论文的数目的发表趋势。x轴代表年份,y轴代表该年被录用的论文的数量。可以看到,最近两年的研究都呈现出了明显的一个增长趋势。可理解分析这个方向最近两年还是有较多人关注到的。

对于自己近期的研究工作,黄萱菁教授说,主要是两个部分:第一部分是理解模型部件的功能属性,另外一个部分是关于模型诊断。在理解模型部件的功能属性方面,黄教授介绍了以下三个方面的工作:

一、LSTM架构的认知解释。希望了解两个问题,一是“人阅读和机器阅读时的神经元活动是否可以相互预测?”,二是“LSTM架构在认知角度是否合理?”。

二、序列模型的认识。这里的研究动机主要是两个,一是“主流的几种基于神经网络模型的词表示,究竟编码了哪些语言学特征?”二是“神经元的行为模式是否可解释?”。

三、抽取式摘要中各个组件的作用分析,也就是不同配置的模型到底差异在哪里。

黄萱菁教授还在报告中介绍了今年自己团队已发表的鲁棒性分析的相关工作。

第一个是关于对抗分析的,神经网络容易受到对抗样本的干扰,所以在实地实际落地使用的时候会容易一些问题。所谓的对抗样本指的是对输入做微小的难以察觉的扰动,导致机器学习模型预测错误的样本。这里需要注意的是语义的一致性以及冠词介词这类功能词不进行改变,避免引起句法歧义。

第二个是依存句法任务的攻击性能。基于依存句法对抗样本探究了句法任务模型的鲁棒性,通过利用对抗样本,提高了模型的鲁棒性。

第三个是基于情感分析(ABSA)的方面。黄萱菁教授的团队提出了一种简单有效的数据生成方法来测试模型的鲁棒性,构建了ARTS测试数据集来评测模型鲁棒性;继而提出了新的评测指标Aspect Robustness Score;并且通过探测9个现有的ABSA模型,提出了提升现有模型的鲁棒性的方法。

在报告的最后,黄萱菁教授对于可理解性分析的未来作出了研究展望;希望有一个统一的指标与数据集能够对可理解、可解释模型进行评价,并且有了这种统一评价之后,能够有一个通用的可交互的可解释工具,进行系统化平台化的分析。

另外,分析的目的是真正是改进现有系统的性能,帮助理解更好系统的输出,所以希望能够探索更多应用场景,通过可理解分析的结果去改变现有系统的性能。

黄萱菁个人介绍

黄萱菁,复旦大学计算机科学技术学院教授、博士生导师,主要从事自然语言处理、信息检索和社会媒体分析研究。兼任中国中文信息学会常务理事、社会媒体专委会副主任,中国计算机学会自然语言处理专委会副主任、学术工作委员会委员。在高水平国际学术期刊和会议上发表了百余篇论文,负责的多个科研项目受到国家自然科学基金、科技部、教育部、上海市科委的支持。入选由清华—中国工程院知识智能联合研究中心和清华大学人工智能研究院联合发布的“2020年度人工智能全球女性”,“2020年度AI 2000人工智能全球最具影响力提名学者”及“福布斯中国2020科技女性榜”。

参考资料:
http://conference.cipsc.org.cn/lis2020/reports/huangxuanjing.html

(0)

相关推荐