The latest work on language representations carefully integrates contextualized features into language model training, which enables a series of success especially in various machine reading comprehension and natural language inference tasks. However, the existing language representation models including ELMo, GPT and BERT only exploit plain context-sensitive features such as character or word embeddings. They rarely consider incorporating structured semantic information which can provide rich semantics for language representation. To promote natural language understanding, we propose to incorporate explicit contextual semantics from pre-trained semantic role labeling, and introduce an improved language representation model, Semantics-aware BERT (SemBERT), which is capable of explicitly absorbing contextual semantics over a BERT backbone. SemBERT keeps the convenient usability of its BERT precursor in a light fine-tuning way without substantial task-specific modifications. Compared with BERT, semantics-aware BERT is as simple in concept but more powerful. It obtains new state-of-the-art or substantially improves results on ten reading comprehension and language inference tasks.


翻译:语言代表的最新工作仔细地将背景特征纳入语言模式培训,从而能够取得一系列成功,特别是在各种机器阅读理解和自然语言推断任务方面。然而,现有的语言代表模式,包括ELMO、GPT和BERT, 仅仅利用了简单的背景敏感特征,如字符或字嵌入等。它们很少考虑纳入结构化的语义信息,为语言代表提供丰富的语义。为了促进自然语言理解,我们提议从培训前的语义角色标签中引入明确的背景语义,并引入一个改进的语言代表模式,即SemBERT(SemBERT),它能够明确地将背景语义吸收到BERT的骨干上。SemBERT保持其先质在轻巧调整时的易用性,而没有实质性的具体任务修改。与BERT相比,语义意识BERT在概念上非常简单,但更有力。它获得了新的状态或大幅度改进了十种阅读理解和语言推论任务的结果。

4
下载
关闭预览

相关内容

语言表示一直是人工智能、计算语言学领域的研究热点。从早期的离散表示到最近的分散式表示,语言表示的主要研究内容包括如何针对不同的语言单位,设计表示语言的数据结构以及和语言的转换机制,即如何将语言转换成计算机内部的数据结构(理解)以及由计算机内部表示转换成语言(生成)。
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
BERT进展2019四篇必读论文
专知会员服务
65+阅读 · 2020年1月2日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
一步步理解BERT
AINLP
34+阅读 · 2019年6月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年8月22日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
12+阅读 · 2019年2月28日
VIP会员
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
一步步理解BERT
AINLP
34+阅读 · 2019年6月19日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
从 Word Embedding 到 Bert:一起肢解 Bert!
人工智能头条
17+阅读 · 2018年12月11日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员