第21届国际语音通讯会议(Interspeech 2020)在继2000年在北京成功举办后第二次回归中国。本次大会是由中国科学院自动化所、香港中文大学、清华大学和上海交通大学共同主办,大会主席由香港中文大学的蒙美玲教授,中国科学院自动化研究所徐波研究员和清华大学的郑方教授联合担任。受疫情影响,原计划将于10月25日~10月29日在上海召开的Interspeech 2020大会,将转为全线上会议。届时语音相关领域海内外知名专家学者将共聚一堂,交流相关研究领域的最新成果和发展趋势。
李宏毅(Hung-yi Lee)目前任台湾大学电机工程学系和电机资讯学院的助理教授,他曾于 2012 年获得台湾大学博士学位,并于 2013 年赴麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)做访问学者。他的研究方向主要是机器学习(深度学习)和语音识别。
Meta Learning and Its Applications to Human Language Processing
基于深度学习的人类语言技术(HLT),如自动语音识别、意图和槽位识别或对话管理,已成为近年来的研究主流,并显著优于传统方法。然而,深度学习模型因对数据和计算的渴求而臭名昭著。这些缺点限制了此类模型在部署到不同语言、领域或风格时的应用,因为从头收集标注数据和训练模型的成本很高,而且人类语言的长尾特性使挑战变得更大。
一个典型的机器学习算法,如深度学习,可以被认为是一个复杂的函数。该函数以训练数据为输入,以训练模型为输出。今天的学习算法大多是人为设计的。这些算法通常是针对某一特定任务而设计的,需要大量带标记的训练数据进行学习。一种可能克服这些挑战的方法是元学习,也被称为“学习的学习”,旨在学习学习算法,包括更好的参数初始化、优化策略、网络架构、距离度量等。最近,在几个HLT领域,元学习已经显示出高潜力,允许更快的微调,收敛到更好的性能,并实现较少样本学习。本教程的目的是介绍元学习方法,并回顾将此技术应用于HLT的工作。
http://www.interspeech2020.org/Program/Tutorials/
专知便捷查看
便捷下载,请关注专知公众号(点击上方蓝色专知关注)
后台回复“NLPML” 可以获取《【INTERSPEECH2020】元学习与自然语言处理应用,台大李宏毅老师讲解。附视频与PPT》专知下载链接索引