哥伦比亚大学Elias Bareinboim副教授ICML 2020教程《因果强化学习》!

因果推理提供了一套工具和原则,允许人们结合数据和环境的结构不变性来推理反事实性质的问题。如果现实不是这样,会发生什么呢? 即使想象中的现实没有数据可用。强化学习关心的是在交互和不确定的环境中有效地找到一个优化特定功能的策略(例如,奖励,后悔)。这两个学科是独立发展的,它们之间几乎没有相互作用。然而,在现实中,它们对同一个构建块的不同方面进行操作,这使得他们紧密相连。

在本教程中,我们将基于这一观察结果引入统一的处理方法,并将这两个学科置于相同的概念和理论框架下。我们表明,当这一联系完全建立时,就会出现许多自然的和普遍的学习问题,而这不能单独从任何一个学科中看到。特别地,我们将讨论广义策略学习(在线、非策略和做微积分学习的组合)、何时何地干预、反事实决策(自由意志、自主、人与人工智能协作)、策略通用性和因果模仿学习等等。这种新的理解导致了对什么是反事实学习的更广泛的观点,并暗示了因果关系和强化学习并行研究的巨大潜力。我们称这种新的研究为“因果强化学习”(简称CRL)。

地址:

https://crl.causalai.net/

成为VIP会员查看完整内容
90

相关内容

专知会员服务
45+阅读 · 2020年8月23日
【ICML2020Tutorial】机器学习信号处理,100页ppt
专知会员服务
108+阅读 · 2020年8月15日
(ICML 2020 Tutorial)贝叶斯深度学习与概率模型构建,134页ppt
如何建模动态图?看这份《时序图神经网络》26页ppt
专知会员服务
137+阅读 · 2020年7月25日
【ICML2020】基于模型的强化学习方法教程,279页ppt
专知会员服务
123+阅读 · 2020年7月20日
【ICML2020-Tutorial】无标签表示学习,222页ppt,DeepMind
专知会员服务
88+阅读 · 2020年7月14日
DeepMind:用PopArt进行多任务深度强化学习
论智
26+阅读 · 2018年9月14日
ICML2018 模仿学习教程
专知
6+阅读 · 2018年7月14日
Optimization for deep learning: theory and algorithms
Arxiv
102+阅读 · 2019年12月19日
Image Captioning based on Deep Reinforcement Learning
Arxiv
11+阅读 · 2018年4月25日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
微信扫码咨询专知VIP会员