深度学习变天,模型越做越小!Google发布FLAN,模型参数少400亿,性能超越GPT-3

2021 年 9 月 17 日 THU数据派
  
  
    


        
        
          
           
           
             
来源:新智元

  本文约2158字,建议阅读4分钟

本文介绍了Google最新发布的一个新的语言模型——FLAN。



【导读】你是否抱怨过深度学习这畸形的研究发展路线,大公司才能玩得起sota,普通人连买张显卡都要承受几倍的溢价!最近Google发布了一个新的语言模型FLAN,或许能在深度学习中带来新的发展趋势,它相比GPT-3少了400亿参数,性能还更强!


像OpenAI的GPT-3这样的语言模型,近年来层出不穷,企业也更愿意投入来研究如何利用AI技术和数据来学习文本生成等。
 
而GPT-3也不负众望,它及它的后继模型能够像人一样来写电子邮件、文本摘要、甚至写各种语言的代码。
 
 
但它也有一个致命缺点,那就是训练时间长,需要海量的训练数据,并且生成的模型参数量极大,需要高性能运算设备才能发挥全部性能。目前的研究也在朝着更大的语言模型、更多任务的数据方向发展。
 
传统观点认为,模型的参数越多,它可以完成的任务就越复杂,性能也越好。在机器学习中,参数是模型在进行预测时使用的内部配置变量,通过不同的参数可以对不同的问题进行拟合。
 
但是越来越多的研究对这个概念提出了质疑。最近,谷歌的研究人员发表了一项研究,声称他们发布了一个参数量远小于 GPT-3 的模型——微调语言网络 (fine-tuned language net, FLAN),并且在许多有难度的基准测试中性能都大幅超过 GPT-3。 
 
论文地址:https://arxiv.org/pdf/2109.01652.pdf
 
与 GPT-3 的 1750 亿个参数相比,FLAN 拥有 1370 亿个参数,在研究人员对其进行测试的 25 项任务中,有19项超过了zero-shot 175B GPT-3。
 
FLAN甚至在ANLI、RTE、BoolQ、AI2-ARC、OpenbookQA和StoryCloze上的表现都大大超过了 few-shot GPT-3。
 
 
消融研究表明, 任务数量和模型规模是教学调整成功的关键因素
 
FLAN 与 GPT-3 的不同之处在于,FLAN 面向60 项自然语言处理任务进行了微调,这些任务通过自然语言指令来表达,例如情感分类中使用“这条影评的情绪是正面还是负面?”来表示。
 
 
FLAN是Base LM的指令调优(instruction-tuned)版本。指令调优管道混合了所有数据集,并从每个数据集中随机抽取样本。
 
各个数据集的样本数相差很大,有的数据集甚至有超过1000万个训练样本(例如翻译),因此将每个数据集的训练样例数量限制为30000个。
 
有的数据集几乎没有训练样本,例如CommitmentBank只有250个样本,为了防止这些数据集被边缘化,遵循样本比例混合方案(examples-proportional mixing schema),在最大混合率为3000的情况下,使用Adafactor优化器以3e-5的学习率,以8192的batch size对所有模型进行30000次梯度更新的微调。
 
微调过程中使用的输入和目标序列长度分别为1024和256。使用packing将多个训练样本组合成一个序列,使用特殊的序列结束标记将输入与目标分离。
 
谷歌的研究人员表示,这种指令调节(instruction tuning)通过教模型如何执行指令描述的任务来提高模型处理和理解自然语言的能力。
 
在FLAN对网页、编程语言、对话和维基百科文章的训练后,研究人员发现,该模型可以学习按照未经明确训练的任务进行操作,也就是说可以部分理解了自然语言的真实意图。尽管训练数据不如GPT-3的训练集“干净”,但FLAN仍然在问答和长文摘要等任务上超过了GPT-3。
 
 
除此之外,FLAN的zero-shot和few-shot性能与也比GPT-3好一些,这也表明模型有能力遵循各种指令。
 
除了速度优势,更小、更仔细微调(more carefully tuned)的模型还可以解决一些大型语言模型可能产生的其他问题 ,例如环境影响。
 
2020年6月,马萨诸塞大学艾摩斯特分校的研究人员发布了一份报告,估计训练和搜索某一模型所需的电力量约为626000磅二氧化碳的排放量,相当于美国平均汽车寿命排放量的5倍。
 
 
谷歌的一项研究也发现,GPT-3在训练期间使用了1287兆瓦电,产生了552吨的二氧化碳排放。相比之下,FLAN只使用了451兆瓦电,产生了26吨的二氧化碳。
 
麻省理工学院最近一篇论文也说明,如果按照大型语言模型的趋势继续下去,从硬件、环境和资金的角度来看,训练的成本将变得令普通人无法触及。以低经济的方式实现高性能目标需要更高效的硬件、更高效的算法或其他改进,才能够让整体的收益保持为正。
 
康奈尔大学的自然语言处理研究员 Maria Antoniak 就曾公开表示, 是否一定需要更大的模型才能处理好自然语言 ,目前来说这个问题还没有答案。即便说基准测试的排行榜被这些大模型刷了个遍,但把更多的数据输入到模型中,是否能继续带来性能提升,还是不确定的。
 
并且NLP的领域的评测通常是以任务为中心,研究人员通常共同解决特定数据集上的特定问题,这些任务通常是结构化的,并且所能涵盖的自然语言问题也是比较单一的。虽然在排行榜上取得更好的成绩代表模型性能更强,这种研究方法也在促进者NLP技术的发展,也可能限制研究人员在泛化性上的思考。并且这种研究结果能否最终进行真正的语言理解还有待商榷。
 
谷歌研究中提到大型语言模型的问题可能在于用于训练它们的数据以及常见的训练方法。例如奥地利维也纳大学医学院人工智能研究所的研究人员发现, GPT-3在生物医学领域中的表现并不如小型架构但精细的模型
 
 
即使在对生物医学数据进行预训练和微调后,研究者们还发现 大的语言模型很难在问答、文本分类和识别上与更小的模型相媲美
 
实验结果表明,在生物医学自然语言处理领域,多任务语言模型仍有很大的发展空间,很少有模型能够在少量训练数据可用的情况下有效地将知识转移到新任务。
 
这也可以归结为数据质量的问题。社区驱动项目EleutherAI的数据科学家Leo Gao的另一篇论文表明,训练数据中集中数据的管理方式会显著影响大型语言模型的性能。
 
 
通常研究人员普遍认为,使用分类器过滤掉来自「低质量源」像Common Crawl的数据可以提高训练数据质量,但过度过滤会导致类似GPT的语言模型性能下降。
 
通过对分类器得分进行过度的优化,会使得保留的数据开始以满足分类器要求的方式而出现偏差,从而生成一个不太丰富、多样性不足的数据集。
 
从直觉上看,丢弃的数据越多,剩余数据的质量就越高,但研究人员发现,基于浅分类器的过滤并不总是如此。相反,过滤在一定程度上提高了下游任务的性能,但随着过滤变得过多,性能又会下降高。可以推测这是由于Goodhart定律造成的,随着优化压力的增加,agent和真实目标之间的不一致变得更加明显。
 
 
Goodhart定律内容:当一个措施本身成为目标时,它就不再是一个好的措施。
(When a measure becomes a target, it ceases to be a good measure.)

参考资料:

https://arxiv.org/pdf/2109.01652.pdf


—— END ——

登录查看更多
0

相关内容

1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
94+阅读 · 2021年11月4日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
少即是多?非参数语言模型,68页ppt
专知会员服务
23+阅读 · 2020年11月22日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
187+阅读 · 2020年8月6日
【清华大学】低资源语言:回顾综述和未来的挑战,14页pdf
【LinkedIn报告】深度自然语言处理的搜索系统,211页pdf
专知会员服务
106+阅读 · 2019年6月21日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
0+阅读 · 2022年4月17日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
103+阅读 · 2021年6月8日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关VIP内容
1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
94+阅读 · 2021年11月4日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
少即是多?非参数语言模型,68页ppt
专知会员服务
23+阅读 · 2020年11月22日
【文本分类大综述:从浅层到深度学习,35页pdf】
专知会员服务
187+阅读 · 2020年8月6日
【清华大学】低资源语言:回顾综述和未来的挑战,14页pdf
【LinkedIn报告】深度自然语言处理的搜索系统,211页pdf
专知会员服务
106+阅读 · 2019年6月21日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员