自然语言处理(NLP)在神经模型的基础上,在过去的十年中取得了很大的进展,经常利用大量的标记数据来实现最先进的性能。对标记数据的依赖使NLP模型无法应用于资源不足的设置和语言,因为标记大量文本数据通常需要时间、金钱和专业知识。因此,在有限的标记数据下学习的能力对于将神经系统部署到真实的NLP应用是至关重要的。近年来,人们已经探索了许多方法来缓解自然语言处理中对标记数据的需求,如数据增强和半监督学习。本教程旨在提供这些方法的系统和最新的概述,以帮助研究人员和从业人员理解从有限的标记数据中学习的方法和挑战,这是计算语言学社区的一个新兴话题。我们将考虑应用于各种各样的NLP任务(包括文本分类、生成和结构化预测),并将突出当前的挑战和未来的方向。