Till now, attention-based models have been used with great success in the keyword spotting problem domain. However, in light of recent advances in deep learning, the question arises whether self-attention is truly irreplaceable for recognizing speech keywords. We thus explore the usage of gated MLPs -- previously shown to be alternatives to transformers in vision tasks -- for the keyword spotting task. We verify our approach on the Google Speech Commands V2-35 dataset and show that it is possible to obtain performance comparable to the state of the art without any apparent usage of self-attention.


翻译:到目前为止,在关键词识别问题领域,基于关注的模型已被成功使用。然而,鉴于最近在深层学习方面取得的进步,问题在于自我关注是否真正无法替代语音关键词识别。因此,我们探讨使用Gated MLPs(以前曾显示是愿景任务变压器的替代软件)来完成关键字识别任务。我们核实了我们在谷歌语音指令V2-35数据集上的做法,并表明在没有明显使用自我关注的情况下,有可能取得与最新技术相当的性能。

0
下载
关闭预览

相关内容

华为等发布《视觉Transformer转换器》综述论文,21页pdf
专知会员服务
86+阅读 · 2020年12月25日
最新《Transformers模型》教程,64页ppt
专知会员服务
314+阅读 · 2020年11月26日
专知会员服务
46+阅读 · 2020年10月5日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
105+阅读 · 2020年8月30日
专知会员服务
61+阅读 · 2020年3月19日
Transformer文本分类代码
专知会员服务
117+阅读 · 2020年2月3日
【综述】关键词生成,附10页pdf论文下载
专知会员服务
53+阅读 · 2019年11月20日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
已删除
将门创投
5+阅读 · 2019年4月29日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
干货 | NLP中的self-attention【自-注意力】机制
机器学习算法与Python学习
12+阅读 · 2018年4月11日
暗通沟渠:Multi-lingual Attention
我爱读PAMI
7+阅读 · 2018年2月24日
Arxiv
31+阅读 · 2021年6月30日
Arxiv
28+阅读 · 2021年5月17日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
20+阅读 · 2018年1月17日
VIP会员
相关VIP内容
华为等发布《视觉Transformer转换器》综述论文,21页pdf
专知会员服务
86+阅读 · 2020年12月25日
最新《Transformers模型》教程,64页ppt
专知会员服务
314+阅读 · 2020年11月26日
专知会员服务
46+阅读 · 2020年10月5日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
105+阅读 · 2020年8月30日
专知会员服务
61+阅读 · 2020年3月19日
Transformer文本分类代码
专知会员服务
117+阅读 · 2020年2月3日
【综述】关键词生成,附10页pdf论文下载
专知会员服务
53+阅读 · 2019年11月20日
2019年机器学习框架回顾
专知会员服务
36+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
相关论文
Top
微信扫码咨询专知VIP会员