Initially developed for natural language processing (NLP), Transformer model is now widely used for speech processing tasks such as speaker recognition, due to its powerful sequence modeling capabilities. However, conventional self-attention mechanisms are originally designed for modeling textual sequence without considering the characteristics of speech and speaker modeling. Besides, different Transformer variants for speaker recognition have not been well studied. In this work, we propose a novel multi-view self-attention mechanism and present an empirical study of different Transformer variants with or without the proposed attention mechanism for speaker recognition. Specifically, to balance the capabilities of capturing global dependencies and modeling the locality, we propose a multi-view self-attention mechanism for speaker Transformer, in which different attention heads can attend to different ranges of the receptive field. Furthermore, we introduce and compare five Transformer variants with different network architectures, embedding locations, and pooling methods to learn speaker embeddings. Experimental results on the VoxCeleb1 and VoxCeleb2 datasets show that the proposed multi-view self-attention mechanism achieves improvement in the performance of speaker recognition, and the proposed speaker Transformer network attains excellent results compared with state-of-the-art models.


翻译:最初用于自然语言处理(NLP)的自然语言处理(NLP),变换模型现在被广泛用于语言处理任务,如语音识别,因为其具有强大的序列建模能力,具有强大的音序建模能力;然而,传统的自省机制最初设计为模拟文本序列,而没有考虑到演讲和发言者建模的特性;此外,对不同的变换变式供发言者识别,没有进行充分的研究;在这项工作中,我们提出了一个新颖的多视角自留机制,并介绍了不同变换机制,对不同变换式进行了经验性研究,无论是否建议对发言者加以识别。具体而言,为了平衡掌握全球依赖性和对地方进行建模的能力,我们为变换者提议了一个多视角自留机制,让不同的注意力负责人参加不同范围的接收字段;此外,我们还采用和比较了五种变换变式变式,与不同的网络结构、嵌入地点和集合方法学习发言者嵌入。 VoxCeleb1 和 VoxCeleb2 数据集的实验结果显示,拟议的多视角自留机制在语音识别语音识别上取得了改进了发言者识别模型的功能,并将发言者网络与优秀的模型进行比较。

0
下载
关闭预览

相关内容

说话人识别(Speaker Recognition),或者称为声纹识别(Voiceprint Recognition, VPR),是根据语音中所包含的说话人个性信息,利用计算机以及现在的信息识别技术,自动鉴别说话人身份的一种生物特征识别技术。 说话人识别研究的目的就是从语音中提取具有说话人表征性的特征,建立有 效的模型和系统,实现自动精准的说话人鉴别。
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
3+阅读 · 2021年10月14日
Arxiv
19+阅读 · 2020年12月23日
Arxiv
4+阅读 · 2019年12月2日
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
VIP会员
相关VIP内容
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Top
微信扫码咨询专知VIP会员