Zero-resource named entity recognition (NER) severely suffers from data scarcity in a specific domain or language. Most studies on zero-resource NER transfer knowledge from various data by fine-tuning on different auxiliary tasks. However, how to properly select training data and fine-tuning tasks is still an open problem. In this paper, we tackle the problem by transferring knowledge from three aspects, i.e., domain, language and task, and strengthening connections among them. Specifically, we propose four practical guidelines to guide knowledge transfer and task fine-tuning. Based on these guidelines, we design a target-oriented fine-tuning (TOF) framework to exploit various data from three aspects in a unified training manner. Experimental results on six benchmarks show that our method yields consistent improvements over baselines in both cross-domain and cross-lingual scenarios. Particularly, we achieve new state-of-the-art performance on five benchmarks.


翻译:零资源实体识别(NER)因特定领域或语言的数据匮乏而严重受损,大多数关于零资源NER通过微调不同辅助任务,从各种数据中转让知识的研究大多涉及零资源NER。然而,如何适当选择培训数据和微调任务仍然是一个未决问题。在本文件中,我们通过从三个方面(即域、语言和任务)转让知识以及加强它们之间的联系来解决这一问题。具体地说,我们提出了指导知识转移和任务微调的四个实用指南。我们根据这些准则设计了一个面向目标的微调(TOF)框架,以统一的培训方式利用三个方面的数据。六个基准的实验结果表明,我们的方法在跨主题和跨语言情景的基线方面都取得了一致的改进。特别是,我们在五个基准上取得了新的最新业绩。

0
下载
关闭预览

相关内容

预训练语言模型fine-tuning近期进展概述
专知会员服务
39+阅读 · 2021年4月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
Arxiv
5+阅读 · 2021年6月3日
Arxiv
5+阅读 · 2019年11月22日
Dynamic Transfer Learning for Named Entity Recognition
Arxiv
3+阅读 · 2018年12月13日
Arxiv
15+阅读 · 2018年2月4日
VIP会员
相关VIP内容
预训练语言模型fine-tuning近期进展概述
专知会员服务
39+阅读 · 2021年4月9日
Top
微信扫码咨询专知VIP会员