The field of natural language processing (NLP) has recently seen a large change towards using pre-trained language models for solving almost any task. Despite showing great improvements in benchmark datasets for various tasks, these models often perform sub-optimal in non-standard domains like the clinical domain where a large gap between pre-training documents and target documents is observed. In this paper, we aim at closing this gap with domain-specific training of the language model and we investigate its effect on a diverse set of downstream tasks and settings. We introduce the pre-trained CLIN-X (Clinical XLM-R) language models and show how CLIN-X outperforms other pre-trained transformer models by a large margin for ten clinical concept extraction tasks from two languages. In addition, we demonstrate how the transformer model can be further improved with our proposed task- and language-agnostic model architecture based on ensembles over random splits and cross-sentence context. Our studies in low-resource and transfer settings reveal stable model performance despite a lack of annotated data with improvements of up to 47 F1points when only 250 labeled sentences are available. Our results highlight the importance of specialized language models as CLIN-X for concept extraction in non-standard domains, but also show that our task-agnostic model architecture is robust across the tested tasks and languages so that domain- or task-specific adaptations are not required. The CLIN-Xlanguage models and source code for fine-tuning and transferring the model are publicly available at https://github.com/boschresearch/clin\_x/ and the huggingface model hub.


翻译:自然语言处理领域(NLP)最近出现了一个巨大的变化,转向使用预先培训的语言模型来解决几乎任何任务。尽管在各种任务的基准数据集方面有了很大的改进,但这些模型往往在临床领域,如临床领域等非标准领域执行亚最佳性,例如,在临床领域观察到培训前文件和目标文件之间的巨大差距。在本文件中,我们的目标是缩小对语言模型进行具体区域培训的这一差距,并调查其对多种下游任务和设置的影响。我们引入了预先培训的 CLIN-X (临床 XLM-R) 语言模型,并展示了CLIN-X 中心如何通过从两种语言提取10项临床概念任务的大差额,将其他经过事先培训的变异模式模型化成其他变异模型。此外,我们展示了如何通过我们基于随机分割和交叉背景组合的拟议任务和语言分析模型架构来进一步改进变异源模型和变异源模型的运行情况。我们关于低语言/变异源模型的研究结果显示稳定,尽管缺少经过了47种F1点的改进,而在仅有250个专业模型的C-LX 标签/Serveal化任务中也显示我们的数据。

0
下载
关闭预览

相关内容

专知会员服务
59+阅读 · 2021年5月28日
最新《Transformers模型》教程,64页ppt
专知会员服务
279+阅读 · 2020年11月26日
迁移学习简明教程,11页ppt
专知会员服务
106+阅读 · 2020年8月4日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Arxiv
0+阅读 · 2022年2月16日
Arxiv
19+阅读 · 2021年6月15日
Arxiv
3+阅读 · 2017年8月15日
VIP会员
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Top
微信扫码咨询专知VIP会员