【ICML2022】Branchformer:并行MLP-Attention架构,捕捉局部和全局上下文,用于语音识别和理解

2022 年 7 月 8 日 专知


Conformer已被证明在许多语音处理任务中是有效的。它结合了使用卷积提取局部依赖项和使用自注意力提取全局依赖项的优点。受此启发,我们提出了一种更灵活、可解释和可定制的编码器备选方案——Branchformer,它具有并行分支,用于建模端到端语音处理中的各种范围依赖性。在每个编码器层中,一个分支使用自注意力或其变体来捕获远程依赖,而另一个分支使用带有卷积门控(cgMLP)的MLP模块来提取局部关系。我们对几个语音识别和口语理解基准进行了实验。结果表明,该模型的性能优于Transformer和cgMLP。它还匹配或优于Conformer取得的最先进的结果。此外,我们展示了多种策略来减少计算,这得益于双分支架构,包括在单个训练模型中具有可变推理复杂性的能力。为合并分支学习的权重表明如何在不同层中利用局部和全局依赖关系,这有利于模型设计。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“BFME” 就可以获取【ICML2022】Branchformer:并行MLP-Attention架构,捕捉局部和全局上下文,用于语音识别和理解》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
0

相关内容

【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ECCV2022】UniNet:具有卷积、Transformer和MLP的统一架构搜索
【KDD2022】多行为超图增强Transformer的序列推荐
专知会员服务
28+阅读 · 2022年7月14日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
75+阅读 · 2022年1月20日
【NeurIPS2021】用于视频分割的密集无监督学习
专知会员服务
14+阅读 · 2021年11月14日
专知会员服务
15+阅读 · 2021年9月15日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
1+阅读 · 2022年9月15日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
26+阅读 · 2021年5月17日
Image Segmentation Using Deep Learning: A Survey
Arxiv
43+阅读 · 2020年1月15日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
13+阅读 · 2017年12月5日
VIP会员
相关VIP内容
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ECCV2022】UniNet:具有卷积、Transformer和MLP的统一架构搜索
【KDD2022】多行为超图增强Transformer的序列推荐
专知会员服务
28+阅读 · 2022年7月14日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
75+阅读 · 2022年1月20日
【NeurIPS2021】用于视频分割的密集无监督学习
专知会员服务
14+阅读 · 2021年11月14日
专知会员服务
15+阅读 · 2021年9月15日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Arxiv
1+阅读 · 2022年9月15日
Arxiv
17+阅读 · 2022年2月23日
Arxiv
26+阅读 · 2021年5月17日
Image Segmentation Using Deep Learning: A Survey
Arxiv
43+阅读 · 2020年1月15日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
13+阅读 · 2017年12月5日
Top
微信扫码咨询专知VIP会员