Neural architecture search (NAS) has been successfully applied to tasks like image classification and language modeling for finding efficient high-performance network architectures. In ASR field especially end-to-end ASR, the related research is still in its infancy. In this work, we focus on applying NAS on the most popular manually designed model: Conformer, and then propose an efficient ASR model searching method that benefits from the natural advantage of differentiable architecture search (Darts) in reducing computational overheads. We fuse Darts mutator and Conformer blocks to form a complete search space, within which a modified architecture called Darts-Conformer cell is found automatically. The entire searching process on AISHELL-1 dataset costs only 0.7 GPU days. Replacing the Conformer encoder by stacking searched cell, we get an end-to-end ASR model (named as Darts-Conformner) that outperforms the Conformer baseline by 4.7\% on the open-source AISHELL-1 dataset. Besides, we verify the transferability of the architecture searched on a small dataset to a larger 2k-hour dataset. To the best of our knowledge, this is the first successful attempt to apply gradient-based architecture search in the attention-based encoder-decoder ASR model.


翻译:神经结构搜索(NAS) 成功应用到图像分类和语言模型等任务中, 以寻找高效高性能网络架构。 在 ASR 字段中, 特别是端到端的 ASR, 相关研究仍处于初级阶段。 在这项工作中, 我们侧重于将NAS应用到最受欢迎的人工设计模型上: Confer, 然后提出高效的 ASR 模型搜索方法, 受益于不同建筑搜索( Darts) 的自然优势, 以减少计算管理费用。 我们结合了 Darts 突变器和连接区块, 以形成完整的搜索空间, 在其中自动找到一个名为 Darts- Confred 的修改结构。 AISHELL-1 数据集的整个搜索过程仅花费0. 0. 7 GPU 日。 通过堆放搜索单元格来替换 Connect 编码编码, 我们得到了一个终端到端的 ASR 模型模型( 以 Darts- Conformorner ) 的自然优势, 在基于 开源 ASHELL-1 的数据集上, 校验小数据集中, 我们所搜索的架构中搜索的架构结构的最佳可转移性, 正在将我们搜索二小时的搜索数据库应用中, 成功搜索数据库数据设置。

0
下载
关闭预览

相关内容

最新《神经架构搜索NAS》教程,33页pdf
专知会员服务
26+阅读 · 2020年12月2日
【2020新书】Web应用安全,331页pdf
专知会员服务
23+阅读 · 2020年10月24日
专知会员服务
60+阅读 · 2020年3月19日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
重磅!MobileNetV3 来了!
计算机视觉life
4+阅读 · 2019年5月11日
Github项目推荐 | AutoML与轻量模型列表
AI研习社
9+阅读 · 2019年5月4日
AutoML与轻量模型大列表
专知
8+阅读 · 2019年4月29日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
Arxiv
8+阅读 · 2021年1月28日
Arxiv
5+阅读 · 2018年9月11日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
3+阅读 · 2018年6月24日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
重磅!MobileNetV3 来了!
计算机视觉life
4+阅读 · 2019年5月11日
Github项目推荐 | AutoML与轻量模型列表
AI研习社
9+阅读 · 2019年5月4日
AutoML与轻量模型大列表
专知
8+阅读 · 2019年4月29日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
Top
微信扫码咨询专知VIP会员