跨语言实体链接(Cross-lingual entity linking, XEL)的任务是在目标语言知识库(target-language知识库,KB)中查找从源语言文本中提取的提及内容。(X)EL的第一步是生成候选实体,它从目标语言知识库中为每个提到的候选实体检索貌似合理的候选实体列表。基于Wikipedia资源的方法已经在资源相对较多的语言(HRL)领域被证明是成功的,但是这些方法不能很好地扩展到资源较少的语言(LRL),即使有,也只有很少的Wikipedia页面。近年来,迁移学习方法已被证明可以利用相近语言的资源来降低语言学习对资源的需求,但其性能仍远远落后于资源丰富的语言学习。在本文中,我们首先评估了当前低资源XEL的实体候选生成方法所面临的问题,然后提出了三个改进:(1)减少实体提及和知识库条目之间的脱节,(2)提高模型对低资源场景的鲁棒性。这些方法很简单,但是很有效:我们在7个XEL数据集上对我们的方法进行了实验,发现与最先进的基线相比,它们在前30名标准候选召回中平均产生16.9%的收益。我们改进的模型还使端到端XEL的in-KB精度平均提高了7.9%。

成为VIP会员查看完整内容
16

相关内容

【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
论文浅尝 | 基于平行新闻的Bootstrapping关系抽取
开放知识图谱
13+阅读 · 2019年3月22日
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
Arxiv
5+阅读 · 2019年11月22日
Arxiv
4+阅读 · 2019年9月26日
Arxiv
5+阅读 · 2018年1月30日
Arxiv
3+阅读 · 2017年8月15日
VIP会员
相关VIP内容
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
相关资讯
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
论文浅尝 | 基于平行新闻的Bootstrapping关系抽取
开放知识图谱
13+阅读 · 2019年3月22日
论文浅尝 | 基于Universal Schema与Memory Network的知识+文本问答
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
微信扫码咨询专知VIP会员