Humans are excellent at understanding language and vision to accomplish a wide range of tasks. In contrast, creating general instruction-following embodied agents remains a difficult challenge. Prior work that uses pure language-only models lack visual grounding, making it difficult to connect language instructions with visual observations. On the other hand, methods that use pre-trained multimodal models typically come with divided language and visual representations, requiring designing specialized network architecture to fuse them together. We propose a simple yet effective model for robots to solve instruction-following tasks in vision-based environments. Our \ours method consists of a multimodal transformer that encodes visual observations and language instructions, and a transformer-based policy that predicts actions based on encoded representations. The multimodal transformer is pre-trained on millions of image-text pairs and natural language text, thereby producing generic cross-modal representations of observations and instructions. The transformer-based policy keeps track of the full history of observations and actions, and predicts actions autoregressively. Despite its simplicity, we show that this unified transformer model outperforms all state-of-the-art pre-trained or trained-from-scratch methods in both single-task and multi-task settings. Our model also shows better model scalability and generalization ability than prior work.


翻译:人类在理解语言和视觉方面非常出色,可以完成各种任务。相比之下,创建具有普遍指导能力的实体代理仍然是一个困难的挑战。使用纯语言模型的先前工作缺乏视觉基础,使得将语言指令与视觉观察连接起来变得困难。另一方面,使用预训练的多模态模型的方法通常带有分离的语言和视觉表示,需要设计专门的网络体系结构来将它们融合在一起。我们提出了一种简单而有效的模型,用于解决基于视觉环境的机器人指令跟随任务。我们的方法由一个多模态Transformer组成,它对视觉监测和语言指令进行编码,以及基于Transformer的策略,该策略基于编码的表示预测动作。多模态Transformer在数百万个图像文本对和自然语言文本上进行预训练,因此产生了观察和指令的通用跨模态表示。基于Transformer的策略跟踪观察和操作的完整历史记录,并自回归地预测操作。尽管其简单性,我们证明了这个统一的Transformer模型在单任务和多任务设置中优于所有最先进的预训练或从头开始训练的方法。我们的模型还显示出比以前的工作更好的模型可扩展性和概括能力。

0
下载
关闭预览

相关内容

【CMU博士论文】多语言视觉-语言模型研究,190页pdf
专知会员服务
33+阅读 · 2023年2月15日
【MIT博士论文】多模态模型学习语言,138页pdf
专知会员服务
56+阅读 · 2022年12月23日
【NUS博士论文】学习视觉场景的结构化表示,137页pdf
专知会员服务
36+阅读 · 2022年7月15日
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
专知会员服务
71+阅读 · 2021年7月29日
专知会员服务
29+阅读 · 2020年9月18日
论文浅尝 | 弱监督下极简的视觉语言预训练模型
开放知识图谱
1+阅读 · 2022年9月26日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员