如何确保强化学习可靠?苏黎世联邦理工Turchetta, Matteo博士论文《 强化学习中的安全性和鲁棒性》,218页pdf

2022 年 10 月 25 日 专知

近年来,RL的显著成就使其在人工智能研究的前沿占有一席之地。最关键的是,这些结果大多是在模拟环境中获得的,在模拟环境中,不良行为不会产生有害后果。然而,为了释放RL的全部潜力,我们希望在现实世界中部署它。虽然这扩大了RL有益影响的范围,但也放大了其有害行为的后果。因此,我们必须理解和解决可能导致RL智能体在现实世界中做出潜在破坏性决策的原因。

https://www.research-collection.ethz.ch/handle/20.500.11850/540581

本文研究了小数据环境下由不准确的模型可能导致的RL不安全行为。特别地,它关注的是对分布偏移的鲁棒性问题。不过度拟合训练数据,而泛化到以前未见过的环境条件,以及安全探索,即。,在训练过程中安全获取数据。

我们首先从线性控制理论引入鲁棒性指标的无模型近似。我们利用我们的方法为Furuta摆设计控制策略,并在模拟到现实和硬件实验中演示了它们的鲁棒性,其中包括一个显著的分布位移。

在此基础上,研究了将安全表示为一组未知光滑约束的目标导向安全勘探问题。针对这一问题,我们提出了一种保证安全性和完整性的算法,并在模拟实验中表明,该算法在样本效率方面较现有方法有明显提高。然后,我们将其扩展到自适应控制问题,一类与外生变量引起的分布位移有关的经典控制问题。我们部署我们的算法来控制旋转轴驱动器在不断变化的环境。

最后,我们提出了一个新的框架,将先验知识融入到安全勘探问题中,使我们可以解除以前的方法所做的许多假设,如平滑性。为该框架提供了安全保证,并将其与深度强化学习智能体相结合,以在具有挑战性的环境中安全地训练控制策略。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“RLSR” 就可以获取如何确保强化学习可靠?苏黎世联邦理工Turchetta, Matteo博士论文《 强化学习中的安全性和鲁棒性》,218页pdf》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料

登录查看更多
8

相关内容

【伯克利博士论文】可信赖机器学习,227页pdf
专知会员服务
87+阅读 · 2022年12月12日
【牛津大学博士论文】元强化学习的快速自适应,217页pdf
【MIT博士论文】数据高效强化学习,176页pdf
专知会员服务
85+阅读 · 2022年7月11日
【AAAI2022】一种基于状态扰动的鲁棒强化学习算法
专知会员服务
33+阅读 · 2022年1月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
10+阅读 · 2020年11月26日
A Multi-Objective Deep Reinforcement Learning Framework
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员