Transformer-based pretrained language models (PLMs) have started a new era in modern natural language processing (NLP). These models combine the power of transformers, transfer learning, and self-supervised learning (SSL). Following the success of these models in the general domain, the biomedical research community has developed various in-domain PLMs starting from BioBERT to the latest BioELECTRA and BioALBERT models. We strongly believe there is a need for a survey paper that can provide a comprehensive survey of various transformer-based biomedical pretrained language models (BPLMs). In this survey, we start with a brief overview of foundational concepts like self-supervised learning, embedding layer and transformer encoder layers. We discuss core concepts of transformer-based PLMs like pretraining methods, pretraining tasks, fine-tuning methods, and various embedding types specific to biomedical domain. We introduce a taxonomy for transformer-based BPLMs and then discuss all the models. We discuss various challenges and present possible solutions. We conclude by highlighting some of the open issues which will drive the research community to further improve transformer-based BPLMs.


翻译:在现代自然语言处理(NLP)中,基于变压器的预先培训语言模型(PLMs)已经进入一个新时代。这些模型结合了变压器、转移学习和自我监督学习(SSL)的力量。在这些模型在一般领域取得成功之后,生物医学研究界开发了从生物生物信息交换技术到最新的BioELECTRA和BioALBERT 模型的各种内部PLMs(PLMs),我们强烈认为需要一份调查文件,全面调查各种基于变压器的生物医学预先培训语言模型(BPLMs)。在这次调查中,我们首先简要概述一些基础概念,如自我监督学习、嵌入层和变压器编码层。我们讨论了基于变压器的LMs的核心概念,如培训前方法、培训前任务、微调方法以及生物医学领域特有的各种嵌入类型。我们为基于变压器的BPLMs引入了一种分类,然后讨论所有模型。我们讨论了各种挑战并提出了各种可能的解决办法。我们最后强调一些开放的问题,将推动研究界进一步改进以变压器为基础的BPLMs。

1
下载
关闭预览

相关内容

知识增强预训练语言模型:全面综述
专知会员服务
89+阅读 · 2021年10月19日
专知会员服务
80+阅读 · 2021年10月15日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
【论文笔记】NLP 预训练模型综述
深度学习自然语言处理
8+阅读 · 2020年5月14日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Arxiv
28+阅读 · 2021年10月1日
Arxiv
20+阅读 · 2021年9月21日
Arxiv
103+阅读 · 2021年6月8日
Arxiv
18+阅读 · 2020年10月9日
Compression of Deep Learning Models for Text: A Survey
Arxiv
5+阅读 · 2018年1月18日
VIP会员
相关VIP内容
知识增强预训练语言模型:全面综述
专知会员服务
89+阅读 · 2021年10月19日
专知会员服务
80+阅读 · 2021年10月15日
最新《Transformers模型》教程,64页ppt
专知会员服务
306+阅读 · 2020年11月26日
相关资讯
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
【论文笔记】NLP 预训练模型综述
深度学习自然语言处理
8+阅读 · 2020年5月14日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员