Training agents to act competently in complex 3D environments from high-dimensional visual information is challenging. Reinforcement learning is conventionally used to train such agents, but requires a carefully designed reward function, and is difficult to scale to obtain robust agents that generalize to new tasks. In contrast, Large Language Models (LLMs) demonstrate impressively general capabilities resulting from large-scale pre-training and post-training alignment, but struggle to act in complex environments. This position paper draws explicit analogies between decision-making agents and LLMs, and argues that agents should be trained like LLMs to achieve more general, robust, and aligned behaviors. We provide a proof-of-concept to demonstrate how the procedure for training LLMs can be used to train an agent in a 3D video game environment from pixels. We investigate the importance of each stage of the LLM training pipeline, while providing guidance and insights for successfully applying this approach to agents. Our paper provides an alternative perspective to contemporary LLM Agents on how recent progress in LLMs can be leveraged for decision-making agents, and we hope will illuminate a path towards developing more generally capable agents for video games and beyond. Project summary and videos: https://adamjelley.github.io/aligning-agents-like-llms .


翻译:训练智能体从高维视觉信息在复杂三维环境中胜任行动具有挑战性。传统上使用强化学习训练此类智能体,但需要精心设计奖励函数,且难以扩展以获得能泛化至新任务的鲁棒智能体。相比之下,大型语言模型(LLMs)通过大规模预训练与训练后对齐展现出令人印象深刻的通用能力,但在复杂环境中行动仍存在困难。本立场论文明确类比决策智能体与LLMs,论证智能体应像LLMs一样接受训练,以实现更通用、鲁棒且对齐的行为。我们通过概念验证演示了如何将LLMs训练流程应用于从像素级输入训练视频游戏三维环境中的智能体。在探究LLM训练流程各阶段重要性的同时,我们为成功应用该方法于智能体提供了指导与洞见。本文针对当代LLM智能体提出了新视角,阐释如何利用LLMs的最新进展赋能决策智能体,我们期望这项工作能为开发适用于视频游戏及其他领域的通用智能体照亮前路。项目摘要与视频:https://adamjelley.github.io/aligning-agents-like-llms 。

0
下载
关闭预览

相关内容

智能体,顾名思义,就是具有智能的实体,英文名是Agent。
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员