随着先进计算技术和人工智能的快速发展,复杂系统和应用程序迎来了新纪元,尤其是在自动驾驶汽车(AV)和机器人领域。这些系统越来越多地需要在动态和不确定的环境中自主决策。强化学习(RL)在这一背景下成为了关键技术,为通过与环境互动来学习最优决策策略提供了框架。然而,确保这些决策的安全性和可信性仍然是一个重要的挑战,特别是在安全至关重要的应用场景中,如自动驾驶。本论文针对这一挑战,提出了创新的基于RL的方法,结构分为三个既独立又相互关联的部分,每一部分都专注于安全且可信决策制定中的不同方面。论文的主线是探索和改进RL技术,以确保自主决策系统在复杂、动态环境下的安全性和可靠性。首先,本论文奠定了RL在决策制定中的基础,特别是在不确定和动态的环境下。该部分聚焦于增强RL,以应对现实世界的复杂性,例如在自动驾驶场景中与不可预测的代理(如人类驾驶员)互动,以及在离线RL设置中处理分布偏移问题。这为理解和提升自主系统在不确定条件下的决策能力奠定了基础。在第一部分的基础上,第二部分探讨了层次化规划与RL的集成。该部分重点在于创建一种框架,将不同层次的决策制定相结合,平衡即时的低层次安全问题与高层次战略目标。该方法旨在应对传统RL在复杂多代理环境和长时间任务中的局限性,从而在实时决策中展示出更好的适应性和效率。第三部分则呈现了对RL的前瞻性方法,重点在于离线和在线学习方法的整合。这一部分解决了在探索可能代价高昂或危险的场景中,安全有效地训练RL代理的问题。通过将大规模离线数据(如专家示范)的优势与在线学习相结合,本部分提出了一个新的框架,以增强RL代理在实际应用中的安全性和性能。

成为VIP会员查看完整内容
24

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【MIT博士论文】高效深度学习计算的模型加速
专知会员服务
26+阅读 · 8月23日
模仿学习综述:算法、最新进展和挑战
专知会员服务
64+阅读 · 2023年9月9日
【干货书】机器学习导论第四版,903页pdf
专知
25+阅读 · 2022年11月26日
【机器学习】深入剖析机器学习中的统计思想
产业智能官
14+阅读 · 2019年1月24日
【知识图谱】知识图谱怎么与深度学习结合?
产业智能官
159+阅读 · 2018年12月18日
【机器学习】如何通过机器学习预测维护设备?
产业智能官
16+阅读 · 2018年7月9日
【迁移学习】迁移学习在图像分类中的简单应用策略
国家自然科学基金
7+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
14+阅读 · 2013年12月31日
Arxiv
150+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
386+阅读 · 2023年3月31日
Arxiv
133+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
7+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
14+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员