We study the problem of incorporating prior knowledge into a deep Transformer-based model,i.e.,Bidirectional Encoder Representations from Transformers (BERT), to enhance its performance on semantic textual matching tasks. By probing and analyzing what BERT has already known when solving this task, we obtain better understanding of what task-specific knowledge BERT needs the most and where it is most needed. The analysis further motivates us to take a different approach than most existing works. Instead of using prior knowledge to create a new training task for fine-tuning BERT, we directly inject knowledge into BERT's multi-head attention mechanism. This leads us to a simple yet effective approach that enjoys fast training stage as it saves the model from training on additional data or tasks other than the main task. Extensive experiments demonstrate that the proposed knowledge-enhanced BERT is able to consistently improve semantic textual matching performance over the original BERT model, and the performance benefit is most salient when training data is scarce.


翻译:我们研究了将先前的知识纳入深层变异器模型的问题,即变异器的双向编码显示器(BERT),以提高其在语义文字匹配任务方面的表现。通过测试和分析在完成这项任务时已经知道的BERT,我们更好地了解了哪些具体任务知识最需要,哪些最需要。分析进一步激励我们采取与大多数现有工作不同的方法。我们没有利用先前的知识为微调BERT创建新的培训任务,而是直接将知识注入BERT的多头目关注机制。这导致我们找到一种简单而有效的方法,即快速的培训阶段,因为它将模型从关于除主要任务之外的额外数据或任务的培训中拯救出来。广泛的实验表明,拟议的知识强化的BERT能够不断改进与原始的BERT模型的语义文字匹配性能,在培训数据稀缺时,业绩效益最为显著。

10
下载
关闭预览

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
注意力机制综述
专知会员服务
82+阅读 · 2021年1月26日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
注意力机制介绍,Attention Mechanism
专知会员服务
168+阅读 · 2019年10月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年10月12日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
3+阅读 · 2018年3月21日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年10月12日
Top
微信扫码咨询专知VIP会员