第21届国际语音通讯会议(Interspeech 2020)在继2000年在北京成功举办后第二次回归中国。本次大会是由中国科学院自动化所、香港中文大学、清华大学和上海交通大学共同主办,大会主席由香港中文大学的蒙美玲教授,中国科学院自动化研究所徐波研究员和清华大学的郑方教授联合担任。受疫情影响,原计划将于10月25日~10月29日在上海召开的Interspeech 2020大会,将转为全线上会议。届时语音相关领域海内外知名专家学者将共聚一堂,交流相关研究领域的最新成果和发展趋势。
Meta Learning and Its Applications to Human Language Processing
基于深度学习的人类语言技术(HLT),如自动语音识别、意图和槽位识别或对话管理,已成为近年来的研究主流,并显著优于传统方法。然而,深度学习模型因对数据和计算的渴求而臭名昭著。这些缺点限制了此类模型在部署到不同语言、领域或风格时的应用,因为从头收集标注数据和训练模型的成本很高,而且人类语言的长尾特性使挑战变得更大。
一个典型的机器学习算法,如深度学习,可以被认为是一个复杂的函数。该函数以训练数据为输入,以训练模型为输出。今天的学习算法大多是人为设计的。这些算法通常是针对某一特定任务而设计的,需要大量带标记的训练数据进行学习。一种可能克服这些挑战的方法是元学习,也被称为“学习的学习”,旨在学习学习算法,包括更好的参数初始化、优化策略、网络架构、距离度量等。最近,在几个HLT领域,元学习已经显示出高潜力,允许更快的微调,收敛到更好的性能,并实现较少样本学习。本教程的目的是介绍元学习方法,并回顾将此技术应用于HLT的工作。