A big convergence of language, vision, and multimodal pretraining is emerging. In this work, we introduce a general-purpose multimodal foundation model BEiT-3, which achieves state-of-the-art transfer performance on both vision and vision-language tasks. Specifically, we advance the big convergence from three aspects: backbone architecture, pretraining task, and model scaling up. We introduce Multiway Transformers for general-purpose modeling, where the modular architecture enables both deep fusion and modality-specific encoding. Based on the shared backbone, we perform masked "language" modeling on images (Imglish), texts (English), and image-text pairs ("parallel sentences") in a unified manner. Experimental results show that BEiT-3 obtains state-of-the-art performance on object detection (COCO), semantic segmentation (ADE20K), image classification (ImageNet), visual reasoning (NLVR2), visual question answering (VQAv2), image captioning (COCO), and cross-modal retrieval (Flickr30K, COCO).
翻译:语言、 视觉和多式预设培训正在形成一种巨大的融合。 在这项工作中,我们引入了一个通用的多式联运基础模型BeiT-3, 该模型在视觉和视觉语言任务上都实现了最先进的传输业绩。 具体地说,我们从三个方面推进了巨大的融合: 骨干结构、 预培训任务和模型升级。 我们引入了用于通用模型的多路变异器, 模块结构既能进行深度融合,也能进行特定模式的编码。 在共享的骨干上, 我们以统一的方式对图像( Imglish) 、 文本( 英文) 和图像文本配对( “ 平行句 ” ) 进行蒙面的“ 语言” 建模。 实验结果显示, BeiT-3 在对象探测( CO)、 语系分解( ADE20K)、 图像分类( ImagiNet)、 视觉推理( NLVR2)、 视觉问题解( VQAv2)、 图像字幕( CO) 和跨模式检索( Flickr30K, CO) 。