We present a framework for learning multimodal representations from unlabeled data using convolution-free Transformer architectures. Specifically, our Video-Audio-Text Transformer (VATT) takes raw signals as inputs and extracts multimodal representations that are rich enough to benefit a variety of downstream tasks. We train VATT end-to-end from scratch using multimodal contrastive losses and evaluate its performance by the downstream tasks of video action recognition, audio event classification, image classification, and text-to-video retrieval. Furthermore, we study a modality-agnostic, single-backbone Transformer by sharing weights among the three modalities. We show that the convolution-free VATT outperforms state-of-the-art ConvNet-based architectures in the downstream tasks. Especially, VATT's vision Transformer achieves the top-1 accuracy of 82.1% on Kinetics-400, 83.6% on Kinetics-600, 72.7% on Kinetics-700, and 41.1% on Moments in Time, new records while avoiding supervised pre-training. Transferring to image classification leads to 78.7% top-1 accuracy on ImageNet compared to 64.7% by training the same Transformer from scratch, showing the generalizability of our model despite the domain gap between videos and images. VATT's audio Transformer also sets a new record on waveform-based audio event recognition by achieving the mAP of 39.4% on AudioSet without any supervised pre-training. VATT's source code is publicly available.


翻译:我们提出了一个框架,用于利用无标签的变形器结构,从无标签数据中学习多式演示。 具体地说, 我们的视频- Audio- Text变形器( VATT) 将原始信号作为投入, 并提取足以有益于各种下游任务的多式代表器。 我们用多式反差损失从头到尾培训VATT, 并评估其下游任务(视频动作识别、音频事件分类、图像分类和文本到视频检索)的性能。 此外, 我们通过三种模式之间共享权重, 研究一种模式- 不可知性、 单背骨变形变形器( VATT) 。 我们显示, 在下游任务中, 将无革命性VATT( VATT) 的状态( 终端至尾部代表器) 达到82.1 % 的顶级准确度, 基尼特- 600 之前为83., 音频- 700 基- 以72.7% 基调- 基调- 基调- 700 为基调- 新记录, 和新记录避免受监管前训练的新记录。 向图像分类转换为图像分类, 上至78- 至78.7% 版图像- 版本- 图像- 版本图像- 图像- 版本- 版本- 图像- 图像- 图像- 的稳定性- 上显示- 的顶部- 图像- 图像- 的稳定性- 校格- 图像- 图像- 校格- 校制- 校制- 校制- 校制- 校制- 校制- 校正- 校正- 校正- 校对- 校正- 校对- 校对- 校正- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校对- 校

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
50+阅读 · 2020年2月26日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2022年2月10日
Arxiv
31+阅读 · 2021年6月30日
VIP会员
相关VIP内容
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
50+阅读 · 2020年2月26日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员