受到自然语言处理(NLP)中通用模型成功的启发,近期研究尝试将不同的视觉任务统一到相同的序列格式中,并使用自回归的Transformers进行序列预测。它们应用单向注意力来捕捉序列依赖性,并递归生成任务序列。然而,这样的自回归Transformers可能不适合视觉任务,因为视觉任务序列通常缺乏在自然语言中通常观察到的序列依赖性。在这项工作中,我们设计了Masked AutoDecoder (MAD),一个有效的多任务视觉通用模型。MAD包含两个核心设计。首先,我们开发了一个并行解码框架,引入双向注意力以全面捕捉上下文依赖性,并并行解码视觉任务序列。其次,我们设计了一种遮蔽序列建模方法,通过遮蔽和重构任务序列来学习丰富的任务上下文。通过这种方式,MAD通过单一网络分支和简单的交叉熵损失处理所有任务,最小化任务特定设计。广泛的实验展示了MAD作为统一各种视觉任务新范式的巨大潜力。与自回归对手相比,MAD实现了更优的性能和推理效率,同时与任务特定模型保持竞争力的准确率。代码将在https://github.com/hanqiu-hq/MAD 发布。

成为VIP会员查看完整内容
19

相关内容

【CVPR2024】非自回归序列到序列的视觉-语言模型
【AAAI2024】面向序列推荐的插件扩散模型
专知会员服务
25+阅读 · 1月9日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【KDD2023】协同过滤的高效联合超参数和架构搜索
专知会员服务
22+阅读 · 2023年7月23日
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
25+阅读 · 2023年6月1日
【AAAI2023】对比掩码自动编码器的自监督视频哈希
专知会员服务
14+阅读 · 2022年11月25日
专知会员服务
38+阅读 · 2021年6月19日
专知会员服务
37+阅读 · 2021年5月28日
专知会员服务
29+阅读 · 2020年9月18日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
图节点嵌入(Node Embeddings)概述,9页pdf
专知
15+阅读 · 2020年8月22日
【ICML2020】图神经网络谱聚类
专知
10+阅读 · 2020年7月7日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Augmentation for small object detection
Arxiv
11+阅读 · 2019年2月19日
VIP会员
相关VIP内容
【CVPR2024】非自回归序列到序列的视觉-语言模型
【AAAI2024】面向序列推荐的插件扩散模型
专知会员服务
25+阅读 · 1月9日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【KDD2023】协同过滤的高效联合超参数和架构搜索
专知会员服务
22+阅读 · 2023年7月23日
【ICML2023】无消息传递的transformer图归纳偏差
专知会员服务
25+阅读 · 2023年6月1日
【AAAI2023】对比掩码自动编码器的自监督视频哈希
专知会员服务
14+阅读 · 2022年11月25日
专知会员服务
38+阅读 · 2021年6月19日
专知会员服务
37+阅读 · 2021年5月28日
专知会员服务
29+阅读 · 2020年9月18日
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员