Large-scale transformer-based pre-training has recently revolutionized vision-and-language (V+L) research. Models such as LXMERT, ViLBERT and UNITER have significantly lifted the state of the art over a wide range of V+L tasks. However, the large number of parameters in such models hinders their application in practice. In parallel, work on the lottery ticket hypothesis has shown that deep neural networks contain small matching subnetworks that can achieve on par or even better performance than the dense networks when trained in isolation. In this work, we perform the first empirical study to assess whether such trainable subnetworks also exist in pre-trained V+L models. We use UNITER, one of the best-performing V+L models, as the testbed, and consolidate 7 representative V+L tasks for experiments, including visual question answering, visual commonsense reasoning, visual entailment, referring expression comprehension, image-text retrieval, GQA, and NLVR$^2$. Through comprehensive analysis, we summarize our main findings as follows. ($i$) It is difficult to find subnetworks (i.e., the tickets) that strictly match the performance of the full UNITER model. However, it is encouraging to confirm that we can find "relaxed" winning tickets at 50%-70% sparsity that maintain 99% of the full accuracy. ($ii$) Subnetworks found by task-specific pruning transfer reasonably well to the other tasks, while those found on the pre-training tasks at 60%/70% sparsity transfer universally, matching 98%/96% of the full accuracy on average over all the tasks. ($iii$) Adversarial training can be further used to enhance the performance of the found lottery tickets.


翻译:大型变压器培训前的大规模变压器最近使视觉和语言(V+L)研究发生革命性的变化。LXMERT、VilBERT和UNITER等模型在V+L任务中大大提升了最新水平。然而,这些模型中的众多参数妨碍了其实际应用。与此同时,彩票假设方面的工作表明,深神经网络包含小匹配的子网络,这些网络在平均或甚至比隔离训练的密集网络更能取得更好的性能。在这项工作中,我们进行了第一次实证研究,以评估此类可训练的子网络是否也存在于经过事先训练的V+L模型中。我们使用UNITER这一最优秀的V+L模型之一,作为测试台,并合并了7项具有代表性的V+L任务,包括视觉问答、视觉常识理、视觉要求,提到表达理解、图像检索、GQA和NLVR$2$。通过全面分析,我们进一步总结了我们的主要结论如下。 (美元)在完全的SAV+LU的准确性机票中很难找到完全的准确性,而我们发现,在50个机级的运行的运行中,我们发现, 也很难找到它能的平流平流的平流的运行的平比。(我们找到了。

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
50+阅读 · 2021年1月20日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
154+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
4+阅读 · 2018年5月31日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
1+阅读 · 2021年6月15日
Arxiv
8+阅读 · 2018年5月1日
VIP会员
相关资讯
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
4+阅读 · 2018年5月31日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员