We develop high performance multilingualAbstract Meaning Representation (AMR) sys-tems by projecting English AMR annotationsto other languages with weak supervision. Weachieve this goal by bootstrapping transformer-based multilingual word embeddings, in partic-ular those from cross-lingual RoBERTa (XLM-R large). We develop a novel technique forforeign-text-to-English AMR alignment, usingthe contextual word alignment between En-glish and foreign language tokens. This wordalignment is weakly supervised and relies onthe contextualized XLM-R word embeddings.We achieve a highly competitive performancethat surpasses the best published results forGerman, Italian, Spanish and Chinese.


翻译:我们通过在监管不力的情况下向其他语言投放英文减号说明,开发高性能的多语种表示式(AMR)符号。我们通过配制基于变压器的多语种词嵌入器(部分来自跨语言的ROBERTA (XLM-R large) 。我们开发了一种新颖的外语文本到英语的AMR调整技术,使用英文和英文符号的背景词对齐。这种单词匹配受到薄弱监督,并依赖于背景化的 XLM-R 字嵌入器。我们取得了超过德国、意大利、西班牙和中文最佳公布结果的高度竞争性业绩。

0
下载
关闭预览

相关内容

最新《Transformers模型》教程,64页ppt
专知会员服务
325+阅读 · 2020年11月26日
专知会员服务
119+阅读 · 2019年12月24日
站在BERT肩膀上的NLP新秀们(PART II)
AINLP
35+阅读 · 2019年6月8日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Arxiv
29+阅读 · 2020年3月16日
Arxiv
4+阅读 · 2018年9月6日
Arxiv
6+阅读 · 2018年6月20日
Arxiv
3+阅读 · 2017年12月18日
VIP会员
相关论文
Arxiv
29+阅读 · 2020年3月16日
Arxiv
4+阅读 · 2018年9月6日
Arxiv
6+阅读 · 2018年6月20日
Arxiv
3+阅读 · 2017年12月18日
Top
微信扫码咨询专知VIP会员