大型语言模型(LLMs,或称为类固醇版的N-gram模型),最初是为了通过在前面一串词的上下文中反复预测下一个词而进行训练的,现在已经吸引了人工智能(以及全世界)社区的关注。部分原因在于它们能够对几乎所有人类知识领域的提示生成有意义的完成句。这种极度的多功能性也引发了一种说法,即这些预测性文本补全系统可能具有抽象推理和规划的能力。在这个教程中,我们将对LLMs在规划任务中的能力进行深入探讨,无论是在自主模式还是在辅助模式中。我们特别感兴趣的是,在广泛研究的AI规划社区的问题和框架的背景下,描述这些能力(如果有的话)。

本教程将指出LLMs在生成通常需要解决子目标交互的组合搜索的计划时的基本限制,并展示LLMs作为AI规划社区开发的健全规划者的补充技术的实际应用。除了介绍我们在这个领域的工作,我们还提供了许多相关工作的批判性调查,包括来自规划社区以外的研究者的工作。

这个教程预计将涵盖的主题包括:大型语言模型的背景,以及LLM的使用模式,包括提示技术 在规划中区分使用变换器架构与预训练的LLM的方法 提及Word2vec以规划,决策变换器,我们正在进行的使用GPT2进行微调,学习验证器的工作 LLM与规划 - 自主模式 用自然语言或直接的PDDL进行提示;微调的效果;思维链提示等 LLM作为规划的启发式/想法生成器 与基于案例和轻量级规划的连接 通过提示LLM进行搜索 自动化与人工驱动的提示(以及后者的聪明汉斯问题) LLM作为模型获取技术 LLM作为支持各种类型规划的工具 不完全指定(高度分离)的目标;HTN规划;“广义规划” 在强化学习环境中使用LLM(以获得奖励,偏好)

成为VIP会员查看完整内容
66

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
17+阅读 · 2023年3月2日
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
18+阅读 · 2023年1月18日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
34+阅读 · 2022年10月4日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
45+阅读 · 2022年7月10日
【AAAI 2022】用于文本摘要任务的序列级对比学习模型
专知会员服务
24+阅读 · 2022年1月11日
EMNLP 2021 | 预训练跨语言模型中的大词表构建及使用
专知会员服务
20+阅读 · 2022年1月5日
专知会员服务
21+阅读 · 2021年10月8日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
专知会员服务
34+阅读 · 2020年11月29日
【NeurIPS 2022】扩散模型的深度平衡方法
专知
0+阅读 · 2022年11月6日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
18+阅读 · 2019年10月28日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年9月3日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
17+阅读 · 2023年3月2日
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
18+阅读 · 2023年1月18日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
34+阅读 · 2022年10月4日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
45+阅读 · 2022年7月10日
【AAAI 2022】用于文本摘要任务的序列级对比学习模型
专知会员服务
24+阅读 · 2022年1月11日
EMNLP 2021 | 预训练跨语言模型中的大词表构建及使用
专知会员服务
20+阅读 · 2022年1月5日
专知会员服务
21+阅读 · 2021年10月8日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
专知会员服务
34+阅读 · 2020年11月29日
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员