论文题目: Meta Learning for End-to-End Low-Resource Speech Recognition

摘要: 在本文中,我们提出将元学习方法应用于低资源的自动语音识别(ASR)。我们将不同语言的ASR表示为不同的任务,并通过最近提出的模型无关元学习算法(MAML),从许多预训练语言中学习初始化参数,以实现对未知目标语言的快速适应。我们以六种语言为训练前任务,四种语言为目标任务,对提出的方法进行了评估。初步结果表明,MetaASR方法在训练前不同语言组合的所有目标语言上显著优于目前最先进的多任务训练前方法。此外,由于MAML的模型无关性,本文也为元学习在更多语音相关应用中的应用开辟了新的研究方向。

论文作者: Jui-Yang Hsu, Yuan-Jui Chen, Hung-yi Lee

李宏毅(Hung-yi Lee)目前任台湾大学电机工程学系和电机资讯学院的助理教授,他曾于 2012 年获得台湾大学博士学位,并于 2013 年赴麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)做访问学者。他的研究方向主要是机器学习(深度学习)和语音识别。

成为VIP会员查看完整内容
56

相关内容

李宏毅-《机器学习/深度学习-2019》视频及资料分享
深度学习与NLP
42+阅读 · 2019年3月20日
中文课程!台大李宏毅机器学习公开课2019版上线
机器学习算法与Python学习
7+阅读 · 2019年3月18日
从2017年顶会论文看Attention Model
黑龙江大学自然语言处理实验室
5+阅读 · 2017年11月1日
Teacher-Student Training for Robust Tacotron-based TTS
Arxiv
21+阅读 · 2018年8月30日
Arxiv
6+阅读 · 2018年1月29日
VIP会员
相关VIP内容
微信扫码咨询专知VIP会员