增强型语言模型:一项综述

这次演讲聚焦于最近的一些研究,这些研究中语言模型(LMs)被赋予了推理能力和使用工具的能力。前者被定义为将可能复杂的任务分解为更简单的子任务,而后者包括调用外部模块,如代码解释器。LMs可以单独或通过启发式方法结合这些增强效果,或者从示例中学习如何这样做。在坚持标准的缺失令牌预测目标的同时,这种增强型LMs可以使用各种可能的非参数化的外部模块来扩展其上下文处理能力,从而偏离纯语言建模范式,并被称为增强型语言模型(ALMs)。缺失令牌的目标允许ALMs学习推理,使用工具,甚至行动,同时仍然执行标准的自然语言任务,并在几个基准测试上超过大多数常规的LMs。

成为VIP会员查看完整内容
31

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
【ICML2023】基于自然语言指令的受控文本生成
专知会员服务
21+阅读 · 4月28日
「知识增强预训练语言模型」最新研究综述
专知会员服务
36+阅读 · 2022年11月18日
《大语言模型进展》69页ppt,谷歌研究科学家Jason Wei
专知会员服务
48+阅读 · 2022年10月29日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
32+阅读 · 2020年12月26日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
85+阅读 · 2020年12月19日
最新《Transformers模型》教程,64页ppt
专知会员服务
201+阅读 · 2020年11月26日
少即是多?非参数语言模型,68页ppt
专知会员服务
17+阅读 · 2020年11月22日
「知识增强预训练语言模型」最新研究综述
赛尔笔记 | 自然语言处理中的迁移学习(下)
AI科技评论
11+阅读 · 2019年10月21日
赛尔笔记 | 自然语言处理中的迁移学习(上)
哈工大SCIR
16+阅读 · 2019年10月17日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
进一步改进GPT和BERT:使用Transformer的语言模型
机器之心
15+阅读 · 2019年5月1日
中文版-BERT-预训练的深度双向Transformer语言模型-详细介绍
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
A Survey of Large Language Models
Arxiv
45+阅读 · 3月31日
Arxiv
16+阅读 · 3月26日
Arxiv
11+阅读 · 2019年6月19日
Arxiv
21+阅读 · 2019年3月25日
VIP会员
相关VIP内容
【ICML2023】基于自然语言指令的受控文本生成
专知会员服务
21+阅读 · 4月28日
「知识增强预训练语言模型」最新研究综述
专知会员服务
36+阅读 · 2022年11月18日
《大语言模型进展》69页ppt,谷歌研究科学家Jason Wei
专知会员服务
48+阅读 · 2022年10月29日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
32+阅读 · 2020年12月26日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
85+阅读 · 2020年12月19日
最新《Transformers模型》教程,64页ppt
专知会员服务
201+阅读 · 2020年11月26日
少即是多?非参数语言模型,68页ppt
专知会员服务
17+阅读 · 2020年11月22日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员