强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。
【斯坦福博士论文】在复杂环境中决策学习内容
专知会员服务
24+阅读 · 4月14日
【经典书】Rollout、策略迭代与分布式强化学习
专知会员服务
23+阅读 · 4月13日
【博士论文】强化学习智能体的奖励函数设计
专知会员服务
30+阅读 · 4月8日
大语言模型时代的城市计算
专知会员服务
20+阅读 · 4月4日
【CMU博士论文】基于课程学习的鲁棒强化学习
专知会员服务
16+阅读 · 3月27日
LLM后训练:深入探讨推理大语言模型
专知会员服务
33+阅读 · 3月3日
微信扫码咨询专知VIP会员