大型语言模型(LLM)彻底改变了自然语言处理,但它们被训练为编写,而不是行动或决策。本文提出了几种想法(ReAct、Reflexion、思想树),以将它们转换为与世界自主交互的语言代理,以及几个新的基准(WebShop、InterCode、Collie),以开发和评估这种代理,而不依赖人类偏好标记或LLM评分。 视频: https://www.bilibili.com/video/BV1ju4y1e7Em/ 作者个人主页: 个人主页:https://ysymyth.github.io/

成为VIP会员查看完整内容
43

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
83+阅读 · 2021年11月4日
专知会员服务
20+阅读 · 2021年10月8日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
18+阅读 · 2021年4月11日
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
【NeurIPS2022】分布式自适应元强化学习
专知
3+阅读 · 2022年10月8日
NAACL 2022 | 基于Prompt的文本生成迁移学习
PaperWeekly
1+阅读 · 2022年8月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2012年12月31日
A Survey of Large Language Models
Arxiv
137+阅读 · 3月31日
Arxiv
26+阅读 · 3月26日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员