大型语言模型(LLM)彻底改变了自然语言处理,但它们被训练为编写,而不是行动或决策。本文提出了几种想法(ReAct、Reflexion、思想树),以将它们转换为与世界自主交互的语言代理,以及几个新的基准(WebShop、InterCode、Collie),以开发和评估这种代理,而不依赖人类偏好标记或LLM评分。 视频: https://www.bilibili.com/video/BV1ju4y1e7Em/ 作者个人主页: 个人主页:https://ysymyth.github.io/

成为VIP会员查看完整内容
61

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
【NeurIPS2023】CQM: 与量化世界模型的课程强化学习
专知会员服务
24+阅读 · 2023年10月29日
【NeurIPS2023】大型语言模型是视觉推理协调器
专知会员服务
29+阅读 · 2023年10月24日
【普林斯顿】基于大型语言模型的语言智能体认知架构
专知会员服务
69+阅读 · 2023年9月6日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
95+阅读 · 2021年11月4日
专知会员服务
21+阅读 · 2021年10月8日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
407+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
VIP会员
相关VIP内容
【NeurIPS2023】CQM: 与量化世界模型的课程强化学习
专知会员服务
24+阅读 · 2023年10月29日
【NeurIPS2023】大型语言模型是视觉推理协调器
专知会员服务
29+阅读 · 2023年10月24日
【普林斯顿】基于大型语言模型的语言智能体认知架构
专知会员服务
69+阅读 · 2023年9月6日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
95+阅读 · 2021年11月4日
专知会员服务
21+阅读 · 2021年10月8日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
21+阅读 · 2021年4月11日
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员