小米和西工大联手,三篇论文被Interspeech接收

2018 年 6 月 13 日 人工智能头条


翻译 | 林椿眄

编辑 | 阿司匹林

出品 | 人工智能头条(公众号ID:AI_Thinker)


小米和西北工业大学的“交情”不浅。


去年 7 月,小米和西工大计算机学院的谢磊教授合作,在 arXiv 上提交了一篇端对端的语音识别论文。(详见文章《小米首次公开发表论文:基于注意力机制的端对端语音识别》)


如今,小米和谢磊教授的合作更进一步,在今年 3 月一口气发表了三篇论文,都是智能语音方向的热门题目,可见小米对语音的重视。


谢磊教授表示,目前这三篇论文均已被语音领域的顶会 Interspeech 接收。下面我们就来看看这三篇论文都涉及哪些研究方向。


一、基于注意力机制的语音关键词检出


作者:Changhao Shan, Junbo Zhang, Yujun Wang, Lei Xie


在本文中,我们提出了一种基注意力机制的端到端神经网络模型,用于检出小资源关键字(Keyword Spotting,简称 KWS),以便简化构建一套“产品--质量”的 KWS 系统流程。我们的模型用到了编码器和注意力机制。利用循环神经网络结构 (RNN), 我们的编码器能将输入信号转换为高级的表示。然后,利用注意力机制对编码器的特征进行加权,并生成一个固定长度的矢量。该矢量经线性变换和 softmax 函数处理,最终输出用于关键字检测的得分。我们还评估了不同编码器结构的性能,包括 LSTM,GRU 和 CRNN。我们采用现实世界的数据来评估我们的方法,实验结果表明,我们的方法大大优于近期提出的深度 KWS 方法,而采用 CRNN 结构的编码器能够取得最佳检测性能。 更具体地说,在每小时 1.0 次误警报 (FA) 的设置下,我们的注意力模型能够实现 1.02% 的漏检率 (false rejection rate FRR),而模型参数量仅为84K。


链接:https://arxiv.org/abs/1803.10916


二、用于鲁棒语音识别的基于生成对抗网络的语音去混响

 

作者:Ke Wang, Junbo Zhang, Sining Sun, Yujun Wang, Fei Xiang, Lei Xie


我们研究了生成对抗网络 (GAN) 在语音去混响中的应用,以便提高语音识别的鲁棒性。近期的许多工作已将 GAN 应用于语音增强的研究,以便消除额外的噪声。然而,这些工作缺乏对语音去混响能力的探究,而且 GAN 结构的优势也未能得到充分发挥。在本文,我们基于 GAN 结构,对 ASR 前端的去混响能力进行了深入的研究。首先,我们研究不同的去混响网络的有效性 (GAN 中的生成器),并发现与我们在这个数据集上研究的前馈 DNN 和 CNN 相比,LSTM 结构能够显著地改善模型的性能。接着,我们进一步发现在深层 LSTM 结构中增加残差连接能够进一步提高模型的性能。最后,我们还发现在网络训练期间使用相同的小批量数据来更新生成器和判别器,对于 GAN 结构的成功是非常重要的。此外,正如先前的研究所提到的,使用混响频谱图作为判别器的条件可能会降低模型的表现。总之,在多状态的声学模型上测试时,我们提出的基于 GAN 结构的去混响网络与基准的 DNN 去混响网络相比,其相对 CER 减少了14%-19%。


链接:https://arxiv.org/abs/1803.10132


三、基于深度学习的语音识别说话人自适应技术


作者:Ke Wang, Junbo Zhang, Yujun Wang, Lei Xie


说话者自适应技术旨在不依赖说话人的情况下,能够估计说话者特定的声学模型,以便最小化不同说话者在训练和测试条件下的不匹配。自从深度学习模型成为主流的研究方向,大量的神经网络自适应方法相继被提出,但是不同方法之间的对比实验依旧缺乏,特别是在基于 DNN 的声学模型得到很大改进的情况。在本文,我们旨在通过对三种典型的说话者自适应方法 (LIN, LHUC 和 KLD) 的评估实验来解决这个问题。我们的自适应评估实验,采用不同大小的自适应数据,并在强大的 TDNN-LSTM 声学模型上进行实验。更具挑战的是,我们所关注的说话源和目标分别对应标准普通话的说话者和有口音的普通话的说话者模型,我们比较了不同方法及不用组合下的表现性能,而说话者的自适应性能也能由说话者的口音程度来检验。


链接:https://arxiv.org/abs/1803.10146



精彩预告

AI公开课

时间:6月14日 20:00-21:00

扫描海报二维码,免费报名

添加微信csdnai,备注:公开课,加入课程交流群



点击 | 阅读原文 | 免费学习

登录查看更多
0

相关内容

INTERSPEECH是关于口语处理科学和技术的全球最大、最全面的会议。INTERSPEECH会议强调跨学科的方法,涉及语音科学和技术的各个方面,从基础理论到高级应用。 官网地址:http://dblp.uni-trier.de/db/conf/interspeech/index.html
【CVPR2020】时序分组注意力视频超分
专知会员服务
30+阅读 · 2020年7月1日
ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
66+阅读 · 2020年5月19日
Interspeech 2019 | 基于多模态对齐的语音情感识别
AI科技评论
23+阅读 · 2019年9月21日
近期声学领域前沿论文(No. 3)
深度学习每日摘要
24+阅读 · 2019年3月31日
语音顶级会议Interspeech2018接受论文列表!
专知
6+阅读 · 2018年6月10日
小米的语音识别系统是如何搭建的
深度学习每日摘要
5+阅读 · 2017年9月3日
Arxiv
6+阅读 · 2020年4月14日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2018年11月13日
Arxiv
7+阅读 · 2018年9月27日
VIP会员
Top
微信扫码咨询专知VIP会员