Recently, we proposed a novel speaker diarization method called End-to-End-Neural-Diarization-vector clustering (EEND-vector clustering) that integrates clustering-based and end-to-end neural network-based diarization approaches into one framework. The proposed method combines advantages of both frameworks, i.e. high diarization performance and handling of overlapped speech based on EEND, and robust handling of long recordings with an arbitrary number of speakers based on clustering-based approaches. However, the method was only evaluated so far on simulated 2-speaker meeting-like data. This paper is to (1) report recent advances we made to this framework, including newly introduced robust constrained clustering algorithms, and (2) experimentally show that the method can now significantly outperform competitive diarization methods such as Encoder-Decoder Attractor (EDA)-EEND, on CALLHOME data which comprises real conversational speech data including overlapped speech and an arbitrary number of speakers. By further analyzing the experimental results, this paper also discusses pros and cons of the proposed method and reveals potential for further improvement. A set of the code to reproduce the results is available at https://github.com/nttcslab-sp/EEND-vector-clustering.


翻译:最近,我们提出了一种新颖的发言者二分化方法,称为“End-End-Neal-Dialization-Vactor communication”(EEND-Vctor communication),将基于集群的集群和终端到终端神经网络的二分化方法纳入一个框架。提议的方法结合了两个框架的优势,即基于EEND的高分化性能和对重叠发言的处理,以及根据基于集群的办法对长篇录音进行严格处理和任意数目的发言者。然而,该方法只是根据模拟的2个讲方会议类似数据(EEND-Vctor Group)迄今为止才加以评估。本文将(1) 汇报我们对这一框架的最新进展,包括新近引入的稳健固的组合算法;(2) 实验性地表明,该方法现在大大超越了Encoder-Decoder Atractor(EDA)-EENDEND)-ENDED数据等竞争性分化方法的优势。该数据包含真实的语音演讲数据,包括发言的重叠和任意的发言者人数。通过进一步分析结果,本文还将讨论拟议方法的准和组合/ODEND-Ops-Ops/Ops/Op/Opreals)的复制结果。

0
下载
关闭预览

相关内容

Integration:Integration, the VLSI Journal。 Explanation:集成,VLSI杂志。 Publisher:Elsevier。 SIT:http://dblp.uni-trier.de/db/journals/integration/
专知会员服务
42+阅读 · 2020年12月18日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
专知会员服务
60+阅读 · 2020年3月19日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【资源】语音增强资源集锦
专知
8+阅读 · 2020年7月4日
TCN v2 + 3Dconv 运动信息
CreateAMind
4+阅读 · 2019年1月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
语音顶级会议Interspeech2018接受论文列表!
专知
6+阅读 · 2018年6月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
26+阅读 · 2018年9月21日
VIP会员
Top
微信扫码咨询专知VIP会员