项目名称: 基于事件的强化学习及其在群机器人优化控制中的应用

项目编号: No.61273327

项目类型: 面上项目

立项/批准年度: 2013

项目学科: 自动化技术、计算机技术

项目作者: 陈春林

作者单位: 南京大学

项目金额: 79万元

中文摘要: 强化学习是实现智能系统的一项关键技术,利用问题的结构信息设计分层学习算法是克服复杂问题维数灾难、提高学习速度的有效方法。本项目拟以实际群机器人系统中的大规模空间优化控制问题为背景,将基于事件的优化方法引入到强化学习系统的设计与分析中,系统性的提出基于事件的强化学习(Event-based Reinforcement Learning, ERL)方法,以有效解决模型未知的非标准马尔科夫决策问题,并深入研究其理论、算法及典型应用,包括:①基于对事件的形式化表示,研究ERL基本模型和算法理论;②针对实际工程需求,提出基于概率模糊系统的事件表示和推理方法,研究实用的ERL快速迭代算法;③结合ERL理论方法创新,研究ERL在群机器人大规模网络优化及协调控制中的应用。本研究对探索具有结构特征和推理能力的强化学习理论和算法具有重要理论价值和现实意义,也将促进ERL在实际大规模空间优化控制问题中的应用。

中文关键词: 强化学习;基于事件的学习;群机器人;量子鲁棒控制;优化控制

英文摘要: Reinforcement learning is one of the key techniques to implement intelligent systems. It is an effective way to overcome the curse of dimensionality and speed up learning by designing hierarchical learning algorithms using the structural information of the problems. This project will take the large scale optimal control problems in the real swarm robot systems as the background of applications. Aiming at solving nonstandard Markov decision problems with unknown models, the event-based optimization method is adopted for the design and analysis of reinforcement learing system and an event-based reinforcement learing (ERL) method will be systematically proposed. Then the theories, algorithms and typical applications of ERL will be comprehensively studied. The main research contents include the following three aspects: (1) based on the formalization of events, research on the fundamental models and algorithmic theories of ERL; (2) regarding the needs of practical engineering, propose a probabilistic fuzzy system based representation and reasoning methods for events, then focus on the study of fast iterative algorithms of ERL; (3) research on the applications of ERL in the large scale network optimization and coordination control of swarm robots. This project will be very important for the exploration of RL theories

英文关键词: Reinforcement learning;Event-based learning;Swarm robots;Quantum robust control;Optimal control

成为VIP会员查看完整内容
3

相关内容

强化学习(RL)是机器学习的一个领域,与软件代理应如何在环境中采取行动以最大化累积奖励的概念有关。除了监督学习和非监督学习外,强化学习是三种基本的机器学习范式之一。 强化学习与监督学习的不同之处在于,不需要呈现带标签的输入/输出对,也不需要显式纠正次优动作。相反,重点是在探索(未知领域)和利用(当前知识)之间找到平衡。 该环境通常以马尔可夫决策过程(MDP)的形式陈述,因为针对这种情况的许多强化学习算法都使用动态编程技术。经典动态规划方法和强化学习算法之间的主要区别在于,后者不假设MDP的确切数学模型,并且针对无法采用精确方法的大型MDP。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
斯坦福大学最新【强化学习】2022课程,含ppt
专知会员服务
124+阅读 · 2022年2月27日
【2022新书】强化学习工业应用,408页pdf
专知会员服务
226+阅读 · 2022年2月3日
专知会员服务
54+阅读 · 2021年9月18日
专知会员服务
125+阅读 · 2021年8月25日
专知会员服务
57+阅读 · 2021年6月1日
专知会员服务
132+阅读 · 2021年2月17日
【DeepMind】强化学习教程,83页ppt
专知会员服务
152+阅读 · 2020年8月7日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【2022新书】强化学习工业应用
专知
17+阅读 · 2022年2月3日
改善机器人模仿学习的决断力
TensorFlow
3+阅读 · 2022年1月10日
【资源】强化学习实践教程
专知
43+阅读 · 2019年9月11日
使用强化学习训练机械臂完成人类任务
AI研习社
13+阅读 · 2019年3月23日
【强化学习】如何开启强化学习的大门?
产业智能官
13+阅读 · 2017年9月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
21+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
10+阅读 · 2020年11月26日
Arxiv
12+阅读 · 2020年6月20日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
11+阅读 · 2018年4月25日
小贴士
相关VIP内容
斯坦福大学最新【强化学习】2022课程,含ppt
专知会员服务
124+阅读 · 2022年2月27日
【2022新书】强化学习工业应用,408页pdf
专知会员服务
226+阅读 · 2022年2月3日
专知会员服务
54+阅读 · 2021年9月18日
专知会员服务
125+阅读 · 2021年8月25日
专知会员服务
57+阅读 · 2021年6月1日
专知会员服务
132+阅读 · 2021年2月17日
【DeepMind】强化学习教程,83页ppt
专知会员服务
152+阅读 · 2020年8月7日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
【2022新书】强化学习工业应用
专知
17+阅读 · 2022年2月3日
改善机器人模仿学习的决断力
TensorFlow
3+阅读 · 2022年1月10日
【资源】强化学习实践教程
专知
43+阅读 · 2019年9月11日
使用强化学习训练机械臂完成人类任务
AI研习社
13+阅读 · 2019年3月23日
【强化学习】如何开启强化学习的大门?
产业智能官
13+阅读 · 2017年9月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
21+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
10+阅读 · 2020年11月26日
Arxiv
12+阅读 · 2020年6月20日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
11+阅读 · 2018年4月25日
微信扫码咨询专知VIP会员