XLM-K:通过多语言知识库提高跨语言预训练模型

XLM-K: Improving Cross-Lingual Language Model Pre-Training with Multilingual Knowledge

https://www.zhuanzhi.ai/paper/f50b1d5ba3d41d06328348865c1549ea

论文摘要:

跨语言预训练的目标是提高模型在语言之间的迁移能力,使模型可以在一种语言上训练,然后在其他语言上直接测试。之前跨语言模型的能力主要来源于单语和双语的普通文本。我们的工作首次提出从多语言的知识库中来学习跨语言能力。我们提出了两个新的预训练任务:掩码实体预测和客体推理。这两个任务可以帮助模型实现更好的跨语言对齐,以及让模型更好的记忆知识。在具体任务上的测试表明了我们的模型可以显著提高知识相关的任务的性能,知识探针任务证明了我们模型更好的记忆了知识库。

论文开创性突破与核心贡献:利用结构化的多语言知识库来提升预训练模型,让模型通过掌握知识来提升跨语言迁移能力。

成为VIP会员查看完整内容
26

相关内容

预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类问题)。这种训练不容易执行,并且通常需要大量资源,超出许多可用于深度学习模型的人可用的资源。
中科院自动化所徐波团队最新《视觉-语言预训练》综述
专知会员服务
66+阅读 · 2022年2月23日
专知会员服务
61+阅读 · 2021年8月4日
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
41+阅读 · 2021年6月6日
【AAAI2021】知识增强的视觉-语言预训练技术 ERNIE-ViL
专知会员服务
25+阅读 · 2021年1月29日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
论文浅尝 | 改善多语言KGQA的 Zero-shot 跨语言转换
开放知识图谱
0+阅读 · 2022年2月26日
论文浅尝 | 将结构预测作为增广自然语言间的翻译任务
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员