LLM-based agents can autonomously accomplish complex tasks across various domains. However, to further cultivate capabilities such as adaptive behavior and long-term decision-making, training on static datasets built from human-level knowledge is insufficient. These datasets are costly to construct and lack both dynamism and realism. A growing consensus is that agents should instead interact directly with environments and learn from experience through reinforcement learning. We formalize this iterative process as the Generation-Execution-Feedback (GEF) loop, where environments generate tasks to challenge agents, return observations in response to agents' actions during task execution, and provide evaluative feedback on rollouts for subsequent learning. Under this paradigm, environments function as indispensable producers of experiential data, highlighting the need to scale them toward greater complexity, realism, and interactivity. In this survey, we systematically review representative methods for environment scaling from a pioneering environment-centric perspective and organize them along the stages of the GEF loop, namely task generation, task execution, and feedback. We further analyze implementation frameworks, challenges, and applications, consolidating fragmented advances and outlining future research directions for agent intelligence.


翻译:基于大语言模型的智能体能够在多个领域自主完成复杂任务。然而,要进一步培养适应性行为和长期决策等能力,仅依靠基于人类知识构建的静态数据集进行训练是不够的。这些数据集构建成本高昂,且缺乏动态性和真实性。日益增长的共识是,智能体应直接与环境交互,并通过强化学习从经验中学习。我们将这一迭代过程形式化为生成-执行-反馈(GEF)循环:环境生成任务以挑战智能体,在任务执行期间响应智能体动作返回观察结果,并对执行轨迹提供评估反馈以供后续学习。在此范式下,环境作为经验数据不可或缺的生产者,凸显了将其扩展至更高复杂性、真实性和交互性的必要性。本综述从开创性的环境中心视角,系统回顾了环境扩展的代表性方法,并沿GEF循环的阶段——即任务生成、任务执行和反馈——对其进行组织。我们进一步分析了实现框架、挑战与应用,整合了零散的研究进展,并展望了智能体智能的未来研究方向。

0
下载
关闭预览

相关内容

专知会员服务
22+阅读 · 2021年8月20日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员