在刚刚结束的CoNLL-2019国际跨框架语义分析评测(http://mrp.nlpl.eu/)中,哈工大社会计算与信息检索研究中心(HIT-SCIR)取得了第一名的好成绩
,这是SCIR实验室继取得CoNLL-2018国际多语言通用依存分析评测第一名后再次取得该国际技术评测的冠军。
CoNLL 系列评测每年由 ACL 的计算自然语言学习会议(Conference on Computational Natural Language Learning,CoNLL) 主办,是自然语言处理领域影响力最大的国际技术评测,有力推动了自然语言处理各项任务的发展。
今年的 CoNLL 任务为:Cross-Framework Meaning Representation Parsing,即跨框架语义分析。涵盖了DM、PSD、EDS、UCCA、AMR等5种最为著名的语义表示框架,每种框架都将自然语言表示成图结构来表达特定的语义特性。5个框架按照图中结点与句子中的词的对齐关系,大致可以分为3类:
图中的结点与句子中的词一一对应(DM、PSD)
图中存在虚结点,其与句子的词构成一对多(UCCA)、或者多对多的对应关系(EDS)
-
图中存在虚结点,但是和句子的词之间没有显式的对齐关系(AMR)
本次评测统一了5种框架的表示方法,与之对应的,也统一了评测的方法。具体来说,在评价每个系统表现的时候,需要计算标准图与预测图的同构程度,并考虑以下7项与语义图相关的属性:头结点、每个结点的标签、每个结点的特性(词性、词干)、结点对应句子中字符的范围(锚点)、有向边的集合、每条边上的标签、每条边上的属性(UCCA区分实边和虚边)。从下图可以看到,每个框架只对应若干个图的属性。在进行排名的时候,组织者将会计算每个参赛系统在5个框架下的表现,即按照每个框架所对应的属性,计算标准图与预测图之间的的匹配程度(F1)。最后将所有的框架在所有属性的匹配分数汇总起来,记为ALL-F1值,作为参赛系统的性能指标。
最终有包括北京大学、上海交通大学、苏州大学、香港科技大学、香港中文大学、亚马逊公司在内的16支队伍成功提交了评测系统。我们的系统在最关键的评测指标,即ALL-F1上获得了
第1名
,高出第二名1.0%。其中UCCA框架取得了第一名的成绩,领先了第二名3.24%。
我们采用基于转移的方法设计了参赛系统,并且使用了预训练语言模型BERT来增强词的上下文表示,通过加入Deque结构或加入SWAP操作处理了交叉边的现象,并针对转移系统中用到的Buffer、Stack、Deque等数据结构设计了一个新的批次训练方法,提高了训练速度。
详细的系统实现可以参考我们之后发布在CoNLL2019上的评测系统描述。
项目组成员:
车万翔教授,博士生:窦隆绪、徐阳、王宇轩、刘一佳
排名下载链接:http://svn.nlpl.eu/mrp/2019/public/results.ods
本期责任编辑:崔一鸣
本期编辑:赖勇魁
“哈工大SCIR”公众号
主编:车万翔
副主编:张伟男,丁效
执行编辑:李家琦
责任编辑:张伟男,丁效,崔一鸣,李忠阳
编辑:赖勇魁,王若珂,李照鹏,冯梓娴,顾宇轩
长按下图并点击 “识别图中二维码”,即可关注哈尔滨工业大学社会计算与信息检索研究中心微信公众号:”哈工大SCIR” 。