In this paper, we propose a solution to allow speaker conditioned speech models, such as VoiceFilter-Lite, to support an arbitrary number of enrolled users in a single pass. This is achieved by using an attention mechanism on multiple speaker embeddings to compute a single attentive embedding, which is then used as a side input to the model. We implemented multi-user VoiceFilter-Lite and evaluated it for three tasks: (1) a streaming automatic speech recognition (ASR) task; (2) a text-independent speaker verification task; and (3) a personalized keyphrase detection task, where ASR has to detect keyphrases from multiple enrolled users in a noisy environment. Our experiments show that, with up to four enrolled users, multi-user VoiceFilter-Lite is able to significantly reduce speech recognition and speaker verification errors when there is overlapping speech, without affecting performance under other acoustic conditions. This attentive speaker embedding approach can also be easily applied to other speaker-conditioned models such as personal VAD and personalized ASR.


翻译:在本文中,我们提出一个解决方案,允许使用诸如语音Filter-Lite等有特定条件的语音模型,支持任意数目的注册用户在单关卡中使用任意的注册用户。通过对多个语音嵌入器的注意机制来计算单一的专注嵌入器,然后将其作为该模型的侧面输入。我们实施了多用户语音过滤器-Lite,并评估了它的三个任务:(1) 自动语音识别(ASR)流传任务;(2) 文本独立语音验证任务;(3) 个人化关键词探测任务,该关键词探测任务需要由多个注册用户在吵闹的环境中探测关键词。我们的实验显示,在有4个注册用户的情况下,多用户语音过滤器能够大大减少语音识别和语音核实错误,而不会影响其他声学条件下的性能。这种谨慎的发言者嵌入方法也可以很容易适用于其他有特定语种的模式,例如个人VAD和个性化的ASR。

0
下载
关闭预览

相关内容

语音识别是计算机科学和计算语言学的一个跨学科子领域,它发展了一些方法和技术,使计算机可以将口语识别和翻译成文本。 它也被称为自动语音识别(ASR),计算机语音识别或语音转文本(STT)。它整合了计算机科学,语言学和计算机工程领域的知识和研究。
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
LibRec 精选:你见过最有趣的论文标题是什么?
LibRec智能推荐
4+阅读 · 2019年11月6日
学术会议 | 知识图谱顶会 ISWC 征稿:Poster/Demo
开放知识图谱
5+阅读 · 2019年4月16日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
雪球
6+阅读 · 2018年8月19日
Arxiv
4+阅读 · 2020年5月25日
Arxiv
8+阅读 · 2018年11月27日
VIP会员
Top
微信扫码咨询专知VIP会员