Adapter modules were recently introduced as an efficient alternative to fine-tuning in NLP. Adapter tuning consists in freezing pretrained parameters of a model and injecting lightweight modules between layers, resulting in the addition of only a small number of task-specific trainable parameters. While adapter tuning was investigated for multilingual neural machine translation, this paper proposes a comprehensive analysis of adapters for multilingual speech translation (ST). Starting from different pre-trained models (a multilingual ST trained on parallel data or a multilingual BART (mBART) trained on non-parallel multilingual data), we show that adapters can be used to: (a) efficiently specialize ST to specific language pairs with a low extra cost in terms of parameters, and (b) transfer from an automatic speech recognition (ASR) task and an mBART pre-trained model to a multilingual ST task. Experiments show that adapter tuning offer competitive results to full fine-tuning, while being much more parameter-efficient.


翻译:适应器的调适包括冻结一个模型的预先训练参数和在两层之间注射轻量级模块,结果只增加了少量的任务特定培训参数。虽然对多语种神经机翻译的调适器调适进行了调查,但本文件提议对多语种语音翻译的调适器进行综合分析。从不同的培训前模式(受过平行数据培训的多语言ST,或受过非平行多语种数据培训的多语种BART)开始,我们表明可使用适应器:(a) 高效率地将ST专门用于特定语言配对,在参数方面成本较低;(b) 从自动语音识别任务和MBART预培训模式转移到多语言ST任务。实验显示,调适器的调适能为全面微调带来竞争性结果,同时提高参数效率。

0
下载
关闭预览

相关内容

【CVPR2021】用Transformers无监督预训练进行目标检测
专知会员服务
56+阅读 · 2021年3月3日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
已删除
将门创投
6+阅读 · 2019年4月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
利用 Universal Transformer,翻译将无往不利!
谷歌开发者
5+阅读 · 2018年9月4日
VIP会员
相关VIP内容
【CVPR2021】用Transformers无监督预训练进行目标检测
专知会员服务
56+阅读 · 2021年3月3日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
相关资讯
已删除
将门创投
6+阅读 · 2019年4月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
利用 Universal Transformer,翻译将无往不利!
谷歌开发者
5+阅读 · 2018年9月4日
Top
微信扫码咨询专知VIP会员