Recently, pre-trained contextual models, such as BERT, have shown to perform well in language related tasks. We revisit the design decisions that govern the applicability of these models for the passage re-ranking task in open-domain question answering. We find that common approaches in the literature rely on fine-tuning a pre-trained BERT model and using a single, global representation of the input, discarding useful fine-grained relevance signals in token- or sentence-level representations. We argue that these discarded tokens hold useful information that can be leveraged. In this paper, we explicitly model the sentence-level representations by using Dynamic Memory Networks (DMNs) and conduct empirical evaluation to show improvements in passage re-ranking over fine-tuned vanilla BERT models by memory-enhanced explicit sentence modelling on a diverse set of open-domain QA datasets. We further show that freezing the BERT model and only training the DMN layer still comes close to the original performance, while improving training efficiency drastically. This indicates that the usual fine-tuning step mostly helps to aggregate the inherent information in a single output token, as opposed to adapting the whole model to the new task, and only achieves rather small gains.


翻译:最近,诸如BERT等经过事先培训的背景模型在语言相关任务方面表现良好。我们重新审视了指导这些模型在开放式问题解答中重新排位任务的适用性的设计决定。我们发现,文献中的通用方法依赖于对经过预先培训的BERT模型进行微调,并使用单一的全球输入表示,抛弃了在象征性或判决层面表示中有用的细微区分的相关信号。我们争辩说,这些被抛弃的标牌具有有用的信息,可以加以利用。在本文中,我们通过使用动态内存网络(DMNs)来明确模拟句级表现,并进行实证评估,以显示在经过精细调整的香草BERT模型的重新排位上,通过记忆强化一套关于多种开放式QA数据集的明确句式模型来显示改进。我们进一步表明,冻结BERT模型和仅对DMN层的培训仍然接近最初的性能,同时大幅度提高培训效率。这表明,通常的微调步骤主要有助于将内在信息集中在一个单一的产出符号中,而不是将整个模型转化为新的成果。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
【经典书】模式识别导论,561页pdf
专知会员服务
84+阅读 · 2021年6月30日
BERT进展2019四篇必读论文
专知会员服务
69+阅读 · 2020年1月2日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
4+阅读 · 2019年8月19日
Arxiv
6+阅读 · 2018年6月18日
Arxiv
27+阅读 · 2018年4月12日
Arxiv
10+阅读 · 2018年3月22日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员