项目名称: 基于贝叶斯推理的模糊逻辑强化学习模型研究

项目编号: No.61272005

项目类型: 面上项目

立项/批准年度: 2013

项目学科: 自动化技术、计算机技术

项目作者: 刘全

作者单位: 苏州大学

项目金额: 61万元

中文摘要: 本项目拟针对强化学习领域在大规模状态空间中"维数灾"以及在学习过程中平衡探索与利用的问题,提出基于贝叶斯推理的模糊逻辑强化学习方法。主要思想是将强化学习与模糊逻辑及贝叶斯推理相结合,采用模糊逻辑方法表示状态、动作等方面的知识,结合贝叶斯推理描述模型中状态转移及奖赏值的分布性,建立一个模糊推理系统,优化学习过程中的动作选择策略,平衡动作选择的探索与利用的问题,并在学习过程中自适应修正推理系统,以达到更大程度提高强化学习算法延展性及收敛性的目的。同时,拟将模糊逻辑强化学习算法用于大规模Deep Web网络信息搜索中,解决由于状态空间的高维性及语义信息的不确定性引起的 Deep Web搜索中收敛速度慢甚至无法收敛的问题。因此,基于贝叶斯推理的模糊逻辑强化学习模型的研究,既具有一定的理论价值,又有广阔的应用前景。

中文关键词: 贝叶斯推理;一;二型模糊逻辑;强化学习;Deep Web;tableau

英文摘要: In allusion to the problem of "the curse of dimensionality" and balancing the exploitation and exploration in reinforcement learning, the project put forward the fuzzy logical reinforcement learning based on bayesian inference. The main idea is combining the reinforcement learning, fuzzy logic and bayesian inference, which uses fuzzy logic method to represent the state, action and some other things, constructs a fuzzy inference system based on the distribution of state transition and reward got by bayesian inference, optimizes the action selection policy, balances the exploitation and exploration, and modifies the inference system adaptively to maximize the performance of the algorithm. And at the same time, the project plans to use the proposed method to solve the problem of slow convergence or non-convergence of the algorithm used in deep web, which is caused by the high dimension of state or the uncertainties of semantic information. Therefore, the research of the fuzzy logic reinforcement learning based on bayesian inference both has certain theoretical value and broad application prospects.

英文关键词: Bayesian inference;type-1; type-2 Fuzzy logic;Reinforcement Learning;Deep Web;tableau

成为VIP会员查看完整内容
17

相关内容

ACL2022 | 基于强化学习的实体对齐
专知会员服务
34+阅读 · 2022年3月15日
斯坦福大学最新【强化学习】2022课程,含ppt
专知会员服务
124+阅读 · 2022年2月27日
【NeurIPS 2021】基于次模优化的规则学习算法框架
专知会员服务
33+阅读 · 2021年11月30日
专知会员服务
125+阅读 · 2021年8月25日
专知会员服务
27+阅读 · 2021年7月20日
专知会员服务
21+阅读 · 2021年6月26日
【斯坦福经典书】强化学习在金融应用,414页pdf
专知会员服务
122+阅读 · 2021年3月30日
最新《经济学中的强化学习》2020大综述,42页pdf128篇文献
ACL2022 | 基于强化学习的实体对齐
专知
1+阅读 · 2022年3月15日
【2022新书】强化学习工业应用
专知
17+阅读 · 2022年2月3日
深入理解强化学习,看这篇就够了
PaperWeekly
5+阅读 · 2021年11月28日
强化学习开篇:Q-Learning原理详解
AINLP
36+阅读 · 2020年7月28日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
强化学习精品书籍
平均机器
24+阅读 · 2019年1月2日
【强化学习】易忽略的强化学习知识之基础知识及MDP
产业智能官
17+阅读 · 2017年12月22日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月17日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
A Multi-Objective Deep Reinforcement Learning Framework
Arxiv
11+阅读 · 2018年4月25日
Arxiv
13+阅读 · 2018年1月20日
小贴士
相关VIP内容
ACL2022 | 基于强化学习的实体对齐
专知会员服务
34+阅读 · 2022年3月15日
斯坦福大学最新【强化学习】2022课程,含ppt
专知会员服务
124+阅读 · 2022年2月27日
【NeurIPS 2021】基于次模优化的规则学习算法框架
专知会员服务
33+阅读 · 2021年11月30日
专知会员服务
125+阅读 · 2021年8月25日
专知会员服务
27+阅读 · 2021年7月20日
专知会员服务
21+阅读 · 2021年6月26日
【斯坦福经典书】强化学习在金融应用,414页pdf
专知会员服务
122+阅读 · 2021年3月30日
最新《经济学中的强化学习》2020大综述,42页pdf128篇文献
相关资讯
ACL2022 | 基于强化学习的实体对齐
专知
1+阅读 · 2022年3月15日
【2022新书】强化学习工业应用
专知
17+阅读 · 2022年2月3日
深入理解强化学习,看这篇就够了
PaperWeekly
5+阅读 · 2021年11月28日
强化学习开篇:Q-Learning原理详解
AINLP
36+阅读 · 2020年7月28日
强化学习扫盲贴:从Q-learning到DQN
夕小瑶的卖萌屋
52+阅读 · 2019年10月13日
强化学习精品书籍
平均机器
24+阅读 · 2019年1月2日
【强化学习】易忽略的强化学习知识之基础知识及MDP
产业智能官
17+阅读 · 2017年12月22日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
相关论文
微信扫码咨询专知VIP会员