我们提出了条件感知自监督学习表征(CASSLR),这是一种通用的条件模型,广泛适用于各种语音处理任务。与传统的微调方法(通常针对下游模型进行优化)相比,CA-SSLR整合了来自前层的语言和说话人嵌入,使得自监督学习(SSL)模型能够感知当前的语言和说话人上下文。该方法减少了对输入音频特征的依赖,同时保持了基础自监督学习表征(SSLR)的完整性。CA-SSLR提升了模型的能力,并在最小化特定任务微调的情况下,展示了其在未知任务上的广泛适应性。我们的方法采用线性调制来动态调整内部表征,从而实现细粒度的适应性,同时不显著改变原始模型的行为。实验表明,CA-SSLR减少了可训练参数的数量,缓解了过拟合,并在资源稀缺和未知任务中表现出色。具体来说,CA-SSLR在LID(语言识别)错误上相对减少了10%,在ML-SUPERB基准上的ASR(自动语音识别)字符错误率(CER)提高了37%,在VoxCeleb-1上的SV(说话人验证)等错误率(EER)减少了27%,展示了其有效性。

成为VIP会员查看完整内容
11

相关内容

【CVPR2024】非自回归序列到序列的视觉-语言模型
【CVPR2023】基于文本驱动软掩码的多模态表示学习
专知会员服务
20+阅读 · 2023年4月10日
专知会员服务
21+阅读 · 2021年10月8日
【ACL2020-Facebook AI】大规模无监督跨语言表示学习
专知会员服务
33+阅读 · 2020年4月5日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
15+阅读 · 2008年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关资讯
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
15+阅读 · 2008年12月31日
相关论文
微信扫码咨询专知VIP会员