This paper considers the problem of zero-shot entity linking, in which a link in the test time may not present in training. Following the prevailing BERT-based research efforts, we find a simple yet effective way is to expand the long-range sequence modeling. Unlike many previous methods, our method does not require expensive pre-training of BERT with long position embedding. Instead, we propose an efficient position embeddings initialization method called Embedding-repeat, which initializes larger position embeddings based on BERT-Base. On Wikia's zero-shot EL dataset, our method improves the SOTA from 76.06% to 79.08%, and for its long data, the corresponding improvement is from 74.57% to 82.14%. Our experiments suggest the effectiveness of long-range sequence modeling without retraining the BERT model.


翻译:本文考虑了零点实体连接问题, 测试时间中的连接在培训中可能不存在。 在以BERT为基础的现行研究努力之后, 我们发现一个简单而有效的方法是扩大长距离序列模型。 与以往许多方法不同, 我们的方法并不要求用长期嵌入定位对BERT进行昂贵的预培训。 相反, 我们建议了一种高效的位置嵌入初始化方法, 叫做嵌入- repeatel, 即启动基于 BERT- Base 的较大位置嵌入。 在Wikia 零点的EL 数据集上, 我们的方法将SOTA从76.06%改进为79.08%, 而对于长期数据来说, 相应的改进从74.57%到82.14%。 我们的实验表明不再培训 BERT 模型的远程序列模型的有效性。

0
下载
关闭预览

相关内容

Transformer文本分类代码
专知会员服务
117+阅读 · 2020年2月3日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
Arxiv
0+阅读 · 2020年11月24日
Arxiv
4+阅读 · 2017年10月30日
VIP会员
相关VIP内容
Transformer文本分类代码
专知会员服务
117+阅读 · 2020年2月3日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Top
微信扫码咨询专知VIP会员