3月2日,阿里巴巴与清华大学联合发布业界最大的中文多模态预训练AI模型M6,该模型参数规模超千亿,同时具备文本、图像的理解和生成能力,图像设计效率超越人类,可应用于产品设计、信息检索、机器人对话、文学创作等领域。

预训练语言模型是让AI具备认知能力的关键技术,它突破了传统深度学习方法的瓶颈,是一种新型AI训练思路,即首先自动学习大量语言文字和图像数据,记忆和理解人类丰富的先验知识,再进一步学习专业领域信息,从而让AI同时掌握常识和专业知识。目前,谷歌、微软和 Facebook等企业已投入该技术的研发。

此次发布的M6模型参数规模达到1000亿,是多模态预训练领域史上最大的模型,其理解和生成能力超越传统AI。以图像生成为例,模型可设计包括服饰、鞋类、家具、首饰、书籍等在内的30多个物品类别的图像,最短一分钟即可完成作品的创作,效率超越普通设计师。

M6的突破源自多项底层技术创新。阿里巴巴研究团队基于自研Whale分布式框架,将参数规模扩展到千亿的同时,利用大规模数据并行和模型并行,训练速度提升10倍以上,仅需1-2天即可完成上亿数据的预训练。此外,M6模型首次将多模态预训练模型应用到基于文本的图像生成任务,结合向量量化生成对抗网络学习文本与图像编码共同建模的任务,能够生成清晰度高且细节丰富的图像。

阿里巴巴达摩院智能计算实验室资深算法专家杨红霞表示:“多模态预训练是下一代人工智能的基础,M6模型实现了训练效率和生成精度等多项突破,是当前众多中文多模态下游任务最优模型。”

作为国内最早投入认知智能研究的科技公司之一,阿里巴巴已有30多项认知智能领域研究成果被国际顶级会议收录;研究团队还将研发更高规模的万亿参数多模态预训练模型,进一步突破算力及预训练模型的极限,最终实现通用领域的高质量泛内容生成。

论文内容

M6: A Chinese Multimodal Pretrainer

Authors: Junyang Lin, Rui Men, An Yang, Chang Zhou, Ming Ding, Yichang Zhang, Peng Wang, Ang Wang, Le Jiang, Xianyan Jia, Jie Zhang, Jianwei Zhang, Xu Zou, Zhikang Li, Xiaodong Deng, Jie Liu, Jinbao Xue, Huiling Zhou, Jianxin Ma, Jin Yu, Yong Li, Wei Lin, Jingren Zhou, Jie Tang, Hongxia Yang

摘要:

在这项工作中,我们构建了最大的中文多模态预训练数据集,包含超过1.9TB的图像和292GB的文本,涵盖了广泛的领域。

我们提出了一种跨模态预训练方法,称为M6,Multi-Modality to MultiModality Multitask Mega-transformer,对单模态和多模态数据进行统一的预训练。

我们将模型规模扩大到100亿和1000亿参数,并建立了最大的中文预训练模型。我们将该模型应用于一系列下游应用,并与强基线进行了比较,展示了其出色的性能。

在此基础上,我们专门设计了下游的文本引导图像生成任务,结果表明,经过微调的M6可以生成高分辨率、细节丰富的高质量图像。

https://arxiv.org/pdf/2103.00823.pdf

引言

预训练已经成为自然语言处理(natural language processing, NLP)研究的一个热点[1,2,7,15,17,18,25,29,35,42,47]。最近的GPT-3具有超过175B的参数,这表明利用大数据训练的大模型具有非常大的容量,在下游任务中,特别是在零样本的情况下,它的性能超过了最先进的水平。同时,预训练在自然语言处理中的迅速发展也促进了跨模态预训练的发展。许多研究[4,10,16,20,22,23,26,27,36,49]为各种跨模态下游任务创造了最新的性能。

遗憾的是,最近的研究大多集中在英语数据的预训练上。目前既缺乏大规模的中文数据集,也缺乏基于中文数据的大规模预训练模型。因此,在本研究中,我们开发了一个由1.9TB以上的图像和292GB文本组成的大规模数据集M6-语料库。据我们所知,这是中国最大的多模态和自然语言预训练数据集。从网页上收集的数据集由不同类型的数据组成,涵盖了大量的领域,包括百科全书、问答、论坛讨论、产品描述等。同时,我们设计了复杂的清洗程序,以确保数据的高质量。

此外,为了充分利用海量高质量数据,我们建立一个能够处理多种模态数据的超大模型,以适应不同类型的下游任务。因此,我们提出了一种名为M6的新型模型,即MultiModality-to-MultiModality Multitask Mega-transformer。该模型以transformer为基础,并对其进行了多任务的预训练。预训练使模型具有单模态和多模态的理解和生成能力。基于M6的架构,我们构建了M6-10B和M6-100B,分别放大到100亿和1000亿参数。更具体地说,M6-100B是根据中文数据预先训练的最近最大的模型。我们将该模型应用于产品描述生成、视觉问答、社区问答、中文诗歌生成等一系列下游应用,实验结果表明,M6优于一系列强基线。

这项工作的另一个贡献是,我们首先将预训练与文本-图像生成结合起来。继Ramesh等人的[30]之后,我们利用了一个两阶段的框架来生成图像。具体来说,我们使用经过训练的矢量量化生成对抗网络用离散图像编码来表示图像,然后使用经过训练的M6来学习文本和编码之间的关系。这样的学习可以连接这两种形式,可以实现可控的文本-图像生成。综上所述,M6的贡献如下:

  • 我们收集并构建了业界最大的中文多模态预训练数据,包括300GB文本和2TB图像。

  • 我们提出用M6进行中文的多模态预训练,我们将模型规模扩大到100亿和1000亿参数。M6-10B和M6-100B都是最近最大的多模态预训练模型。

  • M6是通用的,在VQA中超过11.8%,在图像-文本匹配中超过10.3%。此外,M6能够生成高质量的图像。

  • 通过精心设计的大规模分布式训练优化,M6在训练速度上具有明显优势,大大降低了训练成本,为多模态预训练的更广泛应用创造了可能。

成为VIP会员查看完整内容
41

相关内容

专知会员服务
64+阅读 · 2021年3月21日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
29+阅读 · 2020年12月14日
少即是多?非参数语言模型,68页ppt
专知会员服务
20+阅读 · 2020年11月22日
阿里巴巴达摩院发布「2020十大科技趋势」
专知会员服务
105+阅读 · 2020年1月2日
阿里安全图灵实验室招收研究型实习生
CVer
4+阅读 · 2020年10月16日
NLP - 15 分钟搭建中文文本分类模型
AINLP
79+阅读 · 2019年1月29日
【紫冬快讯】自动化所VOT2018实时跟踪竞赛夺冠
中国科学院自动化研究所
3+阅读 · 2018年9月26日
Arxiv
0+阅读 · 2021年4月19日
Arxiv
0+阅读 · 2021年4月16日
Cold-start Sequential Recommendation via Meta Learner
Arxiv
14+阅读 · 2020年12月10日
Arxiv
5+阅读 · 2017年7月23日
VIP会员
微信扫码咨询专知VIP会员