成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
谷歌、DeepMind新研究:归纳偏置如何影响模型缩放?
2022 年 8 月 22 日
机器之心
选自arXiv
作者:Yi Tay等
机器之心编译
编辑:蛋酱
谷歌、DeepMind:以 Transformer 为例,浅析归纳偏置对模型缩放的影响。
Transformer 模型的缩放近年来引发了众多学者的研究兴趣。然而,对于模型架构所施加的不同归纳偏置的缩放性质,人们了解得并不多。通常假设,在特定标度(计算、大小等)的改进可以迁移到不同的规模和计算区域。
不过,理解架构和标度律之间的相互作用至关重要,设计在不同标度上表现良好的模型具有重要的研究意义。有几个问题还需要搞清楚:模型体系架构之间的缩放性不同吗?如果是这样,归纳偏置如何影响缩放表现?又如何影响上游(预训练)和下游(迁移)任务?
在最近的一篇论文中,
谷歌的研究者试图了解归纳偏置(体系架构)对语言模型标度律的影响
。为此,研究者在多个计算区域和范围内(从 1500 万到 400 亿参数)预训练和微调了十种不同的模型架构。总体来说,他们预训练和微调了 100 多种不同体系架构和大小的模型,并提出了在缩放这十种不同体系架构方面的见解和挑战。
论文链接:https://arxiv.org/pdf/2207.10551.pdf
他们还注意到,缩放这些模型并不像看起来那么简单,也就是说,缩放的复杂细节与本文中详细研究的体系架构选择交织在一起。例如,Universal Transformers (和 ALBERT) 的一个特性是参数共享。与标准的 Transformer 相比,这种体系架构的选择不仅在性能方面,而且在计算指标如 FLOPs、速度和参数量方面显著 warp 了缩放行为。相反,像 Switch Transformers 这样的模型则截然不同,它的 FLOPs 和参数量之间的关系是不寻常的。
具体来说,本文的主要贡献如下:
首次推导出不同归纳偏置和模型架构的标度律
。研究者发现这个标度系数在不同的模型中有很大的不同,并指出这是模型开发中的一个重要考虑因素。事实证明,在他们考虑的所有十种体系架构中,普通的 Transformer 拥有最好的缩放性能,即使它在每个计算区域的绝对性能不是最好的。
研究者观察到,
在一个计算标度区域中运行良好的模型不一定是另一个计算标度区域中的最佳模型
。此外,他们发现,某些模型尽管在低计算区域表现良好 ,但是难以进行缩放。这意味着很难通过在某个计算区域进行逐点对比来获得模型缩放性的全貌。
研究者发现,
当涉及到缩放不同的模型架构时,上游预训练的困惑度可能与下游迁移不太相关
。因此,底层架构和归纳偏置对于下游迁移也是至关重要的。
研究者强调了在某些架构下进行缩放的困难,并展示了一些模型没有进行缩放(或以消极趋势进行缩放)。
他们还发现线性时间注意力模型(比如 Performer)难以进行扩展的趋势。
方法与实验
在论文的第三章,研究者概述了整体的实验设置,并介绍了实验中评估的模型。
下表 1 展示了本文的主要结果,包括可训练参数量、FLOPs(单次正向传递)和速度(每秒步数)等,此外还包括了验证困惑度(上游预训练)和 17 个下游任务的结果。
所有模型的缩放方式是否相同?
下图 2 展示了增加 FLOPs 数量时所有模型的缩放行为。可以观察到,所有模型的缩放行为是相当独特和不同的,即其中大多数不同于标准 Transformer。也许这里最大的发现是,大多数模型(例如 LConv、Evolution)似乎都与标准 Transformer 表现相当或更好,但无法按照更高的计算预算去缩放。
另一个有趣的趋势是,「线性」Transformer,如 Performer,不能按比例缩放。如图 2i 所示,从 base 到 large scale 相比,预训练的困惑度只下降了 2.7% 。而对于 vanilla Transformer 来说这一数字是 8.4%。
下图 3 展示了下游迁移任务上所有模型的缩放曲线,可以发现,和 Transformer 相比,大多数模型有着不同的缩放曲线,在下游任务中变化明显。值得注意的是,大多数模型都有不同的上游或下游缩放曲线。
研究者发现,一些模型如 Funnel Transformer 和 LConv,似乎在上游表现相当不错,但在下游受到很大影响。至于 Performer,上游和下游的性能差距似乎更大。值得注意的是,SuperGLUE 的下游任务通常需要编码器上的伪交叉注意力,而卷积这样的模型是无法处理的(Tay et al., 2021a)。
因此,研究者发现尽管某些模型拥有良好的上游性能,但可能还是难以学习下游任务。
每一标度的最佳模型是否有所不同?
下图 1 展示了根据上游或下游性能进行计算时的帕累托边界。图的颜色代表不同的模型,可以观察到,每个标度和计算区域的最佳模型可能是不同的。此外,从上图 3 中也可以看到这一点。例如,Evolved Transformer 似乎在微小(tiny)到小(small)的区域(下游)和标准 Transformer 一样表现很好,但是当放大模型时,这种情况迅速改变。研究者在 MoS-Transformer 也观察到了这一点,它在某些区域的表现明显优于普通的 Transformer ,但在其他区域则不然。
每个模型的标度律
下表 2 给出了多种情况下每个模型的拟合线性直线 α 的斜率。研究者通过绘制 F(FLOPs)、U (上游困惑度)、D (下游准确率)和 P(参数量)得到了α。一般来说,α 描述了模型的缩放性,例如 α_F,U 根据上游性能绘制 FLOPs。唯一的例外是α_U,D,它是衡量上游和下游性能的度量,高的 α_U,D 值意味着向下游任务迁移的模型缩放更佳。总体来说,α 值是一个度量,表示一个模型在缩放上的相对表现。
Scaling Protocols 是否以同样的方式影响模型体系架构?
下图 4 展示了四个模型体系架构(MoS-Transformer、Transformer、Evolved Transformer、LConv)中缩放深度的影响。
下图 5 展示了在相同的四个体系架构中缩放宽度的影响。首先,在上游(负对数困惑)曲线上可以注意到,虽然不同的架构在绝对性能上有明显的差异,但缩放趋势仍然非常相似。在下游,除了 LConv 之外,深度缩放(上图 4)在大多数体系架构上的作用似乎是一样的。同时,相对于宽度缩放,似乎 Evolved Transformer 在应用宽度缩放时会稍微好一点。
值得注意的是,与宽度缩放相比,深度缩放对下游缩放的影响要大得多
。
更多研究细节,可参考原论文。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
缩放
关注
0
希伯来大学最新《自然语言处理(NLP)领域的高效方法》综述论文,阐述资源受限如何提高模型效率
专知会员服务
33+阅读 · 2022年9月17日
DeepMind | 通过去噪来进行分子性质预测的预训练
专知会员服务
12+阅读 · 2022年6月27日
Google最新《高效Transformers》2022综述大全,阐述九大类提升Transformers效率方式
专知会员服务
97+阅读 · 2022年3月18日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
75+阅读 · 2022年1月20日
预训练模型最新综述:过去、现在和未来,43页pdf
专知会员服务
82+阅读 · 2021年6月20日
深度学习如何又好又快? Google最新《高效深度学习: 更小、更快、更好》综述论文,43页pdf
专知会员服务
89+阅读 · 2021年6月18日
【Google】最新《高效Transformers》综述大全,Efficient Transformers: A Survey
专知会员服务
112+阅读 · 2020年9月17日
【Mila】通用表示Transformer少样本图像分类
专知会员服务
32+阅读 · 2020年9月7日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
谷歌提出“T5” 新NLP模型,突破迁移学习局限,多基准测试达SOTA!
专知会员服务
40+阅读 · 2020年2月26日
Gato之后,谷歌也推出「通才型」智能体Multi-Game Decision Transformers
机器之心
1+阅读 · 2022年6月12日
【DeepMind】通用模型Gato(只一个模型神经网络,使用相同的权重, 达到SOTA水平)。
深度强化学习实验室
2+阅读 · 2022年5月15日
纯MLP在下游任务上欠佳?Meta AI等提出稀疏MLP,超越transformer
机器之心
0+阅读 · 2022年4月16日
用自洽性提升大模型推理能力,谷歌解答基准中75%数学问题,比GPT-3提升20%
机器之心
0+阅读 · 2022年4月12日
视频生成无需GAN、VAE,谷歌用扩散模型联合训练视频、图像,实现新SOTA
机器之心
1+阅读 · 2022年4月10日
7 Papers & Radios | 谷歌用Pathways训练5400亿参数大模型;费米实验室研究登《科学》封面
机器之心
0+阅读 · 2022年4月10日
Google最新《高效Transformers》2022综述大全,39页pdf阐述九大类提升Transformers效率方式
新智元
2+阅读 · 2022年4月7日
谷歌「模型汤」靠微调屠了ImageNet的榜!方法竟然只有半页纸
极市平台
0+阅读 · 2022年3月20日
单一ViT模型执行多模态多任务,谷歌用协同训练策略实现多个SOTA
机器之心
1+阅读 · 2021年12月21日
1.2万亿参数:谷歌通用稀疏语言模型GLaM,小样本学习打败GPT-3
PaperWeekly
0+阅读 · 2021年12月10日
片上动态电压缩放功率变换器环路补偿技术的研究与实现
国家自然科学基金
0+阅读 · 2013年12月31日
第一性原理蒙特卡罗壳模型对轻原子核的研究
国家自然科学基金
0+阅读 · 2013年12月31日
条件模型的计量经济学方法探讨及应用
国家自然科学基金
1+阅读 · 2013年12月31日
位错对金属GaN肖特基接触界面漏电的影响机制研究
国家自然科学基金
0+阅读 · 2013年12月31日
景观格局对河流水质的影响规律及模型研究-以香溪河流域为例
国家自然科学基金
0+阅读 · 2013年12月31日
CPU/GPU协同并行计算在第一性原理电子输运模拟中的应用
国家自然科学基金
0+阅读 · 2011年12月31日
电压依赖性阴离子通道蛋白对人类精子活力的影响及机制
国家自然科学基金
0+阅读 · 2011年12月31日
超洛伦兹-高斯光束的构建及其用于表征大角度激光束的研究
国家自然科学基金
0+阅读 · 2009年12月31日
Mobius群的离散性及形变理论
国家自然科学基金
1+阅读 · 2009年12月31日
石墨烯纳米带掺杂及其纳米器件设计的第一原理研究
国家自然科学基金
0+阅读 · 2009年12月31日
Lite-Mono: A Lightweight CNN and Transformer Architecture for Self-Supervised Monocular Depth Estimation
Arxiv
0+阅读 · 2022年11月23日
ProtGNN: Towards Self-Explaining Graph Neural Networks
Arxiv
22+阅读 · 2021年12月2日
Masked Autoencoders Are Scalable Vision Learners
Arxiv
27+阅读 · 2021年11月11日
A Survey of the State of Explainable AI for Natural Language Processing
Arxiv
25+阅读 · 2020年10月1日
A Survey on Contextual Embeddings
Arxiv
29+阅读 · 2020年3月16日
UniViLM: A Unified Video and Language Pre-Training Model for Multimodal Understanding and Generation
Arxiv
19+阅读 · 2020年2月15日
Graph Transformer Networks
Arxiv
15+阅读 · 2020年2月5日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Text Generation from Knowledge Graphs with Graph Transformers
Arxiv
35+阅读 · 2019年4月4日
Embedding Uncertain Knowledge Graphs
Arxiv
12+阅读 · 2019年2月26日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
缩放
体系架构
偏置
标度律
模型架构
Transformer
相关VIP内容
希伯来大学最新《自然语言处理(NLP)领域的高效方法》综述论文,阐述资源受限如何提高模型效率
专知会员服务
33+阅读 · 2022年9月17日
DeepMind | 通过去噪来进行分子性质预测的预训练
专知会员服务
12+阅读 · 2022年6月27日
Google最新《高效Transformers》2022综述大全,阐述九大类提升Transformers效率方式
专知会员服务
97+阅读 · 2022年3月18日
Transformer如何用于视频?最新「视频Transformer」2022综述
专知会员服务
75+阅读 · 2022年1月20日
预训练模型最新综述:过去、现在和未来,43页pdf
专知会员服务
82+阅读 · 2021年6月20日
深度学习如何又好又快? Google最新《高效深度学习: 更小、更快、更好》综述论文,43页pdf
专知会员服务
89+阅读 · 2021年6月18日
【Google】最新《高效Transformers》综述大全,Efficient Transformers: A Survey
专知会员服务
112+阅读 · 2020年9月17日
【Mila】通用表示Transformer少样本图像分类
专知会员服务
32+阅读 · 2020年9月7日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
谷歌提出“T5” 新NLP模型,突破迁移学习局限,多基准测试达SOTA!
专知会员服务
40+阅读 · 2020年2月26日
热门VIP内容
开通专知VIP会员 享更多权益服务
军用数据链:武器装备神经,联合作战基石,31页pdf
【ETHZ博士论文】超越像素深度:通过深度学习增强超分辨率技术,198页pdf
2018∼2023年国家自然科学基金人工智能学科人才项目申请及资助综述
【NeurIPS2024】《AmoebaLLM:构建任意形状的大型语言模型以实现高效和即时部署》
相关资讯
Gato之后,谷歌也推出「通才型」智能体Multi-Game Decision Transformers
机器之心
1+阅读 · 2022年6月12日
【DeepMind】通用模型Gato(只一个模型神经网络,使用相同的权重, 达到SOTA水平)。
深度强化学习实验室
2+阅读 · 2022年5月15日
纯MLP在下游任务上欠佳?Meta AI等提出稀疏MLP,超越transformer
机器之心
0+阅读 · 2022年4月16日
用自洽性提升大模型推理能力,谷歌解答基准中75%数学问题,比GPT-3提升20%
机器之心
0+阅读 · 2022年4月12日
视频生成无需GAN、VAE,谷歌用扩散模型联合训练视频、图像,实现新SOTA
机器之心
1+阅读 · 2022年4月10日
7 Papers & Radios | 谷歌用Pathways训练5400亿参数大模型;费米实验室研究登《科学》封面
机器之心
0+阅读 · 2022年4月10日
Google最新《高效Transformers》2022综述大全,39页pdf阐述九大类提升Transformers效率方式
新智元
2+阅读 · 2022年4月7日
谷歌「模型汤」靠微调屠了ImageNet的榜!方法竟然只有半页纸
极市平台
0+阅读 · 2022年3月20日
单一ViT模型执行多模态多任务,谷歌用协同训练策略实现多个SOTA
机器之心
1+阅读 · 2021年12月21日
1.2万亿参数:谷歌通用稀疏语言模型GLaM,小样本学习打败GPT-3
PaperWeekly
0+阅读 · 2021年12月10日
相关基金
片上动态电压缩放功率变换器环路补偿技术的研究与实现
国家自然科学基金
0+阅读 · 2013年12月31日
第一性原理蒙特卡罗壳模型对轻原子核的研究
国家自然科学基金
0+阅读 · 2013年12月31日
条件模型的计量经济学方法探讨及应用
国家自然科学基金
1+阅读 · 2013年12月31日
位错对金属GaN肖特基接触界面漏电的影响机制研究
国家自然科学基金
0+阅读 · 2013年12月31日
景观格局对河流水质的影响规律及模型研究-以香溪河流域为例
国家自然科学基金
0+阅读 · 2013年12月31日
CPU/GPU协同并行计算在第一性原理电子输运模拟中的应用
国家自然科学基金
0+阅读 · 2011年12月31日
电压依赖性阴离子通道蛋白对人类精子活力的影响及机制
国家自然科学基金
0+阅读 · 2011年12月31日
超洛伦兹-高斯光束的构建及其用于表征大角度激光束的研究
国家自然科学基金
0+阅读 · 2009年12月31日
Mobius群的离散性及形变理论
国家自然科学基金
1+阅读 · 2009年12月31日
石墨烯纳米带掺杂及其纳米器件设计的第一原理研究
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Lite-Mono: A Lightweight CNN and Transformer Architecture for Self-Supervised Monocular Depth Estimation
Arxiv
0+阅读 · 2022年11月23日
ProtGNN: Towards Self-Explaining Graph Neural Networks
Arxiv
22+阅读 · 2021年12月2日
Masked Autoencoders Are Scalable Vision Learners
Arxiv
27+阅读 · 2021年11月11日
A Survey of the State of Explainable AI for Natural Language Processing
Arxiv
25+阅读 · 2020年10月1日
A Survey on Contextual Embeddings
Arxiv
29+阅读 · 2020年3月16日
UniViLM: A Unified Video and Language Pre-Training Model for Multimodal Understanding and Generation
Arxiv
19+阅读 · 2020年2月15日
Graph Transformer Networks
Arxiv
15+阅读 · 2020年2月5日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
Text Generation from Knowledge Graphs with Graph Transformers
Arxiv
35+阅读 · 2019年4月4日
Embedding Uncertain Knowledge Graphs
Arxiv
12+阅读 · 2019年2月26日
大家都在搜
palantir
无人艇
大型语言模型
无人机蜂群
ETHZ博士论文
壁画
智能推荐
笛卡尔
RE-NET
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top