回放 | 华为诺亚方舟ICLR满分论文:基于强化学习的因果发现

2020 年 4 月 1 日 AI科技评论

文 | 朱胜宇

编 | 贾    伟

在昨天我们进行了第四期【ICLR 2020 系列论文解读公开课】,来自华为诺亚实验室的高级研究员朱胜宇博士,就他在ICLR 2020 上的满分论文《Causal Discovery with Reinforcement Learning》做了精彩分享。我们在本文中:

1、论文简介;

2、放入回放视频;

3、解读PTT展示。


如下:



论文简介:

论文地址:https://arxiv.org/pdf/1906.04477.pdf
开源地址:https://github.com/huawei-noah/trustworthyAI

因果研究作为下一个潜在的热点,已经吸引了机器学习/深度学习领域的的广泛关注,例如Youshua Bengio和Fei-Fei Li近期都有相关的工作。因果研究中一个经典的问题是“因果发现”问题——从被动可观测的数据中发现潜在的因果图结构。

华为诺亚方舟实验室因果研究团队将强化学习应用到打分法的因果发现算法中,通过基于自注意力机制的encoder-decoder神经网络模型探索数据之间的关系,结合因果结构的条件,并使用策略梯度的强化学习算法对神经网络参数进行训练,最终得到因果图结构。

在学术界常用的一些数据模型中,该方法在中等规模的图上的表现优于其他方法,包括传统的因果发现算法和近期的基于梯度的算法。同时该方法非常灵活,可以和任意的打分函数结合使用。


直播回放:



PPT 展示:


完整PPT,可关注「AI科技评论」公众号,后台回复「朱胜宇@ICLR2020」下载。





ICLR 2020 系列论文解读


0、ICLR 2020 会议动态报道
疫情严重,ICLR2020 将举办虚拟会议,非洲首次 AI 国际顶会就此泡汤
疫情影响,ICLR 突然改为线上模式,2020年将成为顶会变革之年吗?

火爆的图机器学习,ICLR 2020上有哪些研究趋势?


1、直播


回放正在进行中……



2、Oral
01. Oral | 一种镜像生成式机器翻译模型:MGNMT
02. Oral | 额外高斯先验目标,缓解负多样性无知
03. Oral | 引入额外门控运算,LSTM稍做修改,性能便堪比Transformer-XL
04. Oral | 并行蒙卡树搜索,性能无损,线性加速,勇闯「消消乐」1000关!
05. Oral | 元强化学习迎来一盆冷水: 不比元Q学习好多少
06. Oral | 用群卷积建立深度、等变的胶囊网络
07. Oral | 谷歌推出分布式强化学习框架SEED,性能“完爆”IMPALA,可扩展数千台机器,还很便宜

3、Spotlight
01. Spotlight | 模型参数这么多,泛化能力为什么还能这么强?
02. Spotlight | 公平与精确同样重要!CMU提出学习公平表征方法,实现算法公平

03. Spotlight | 组合泛化能力太差?用深度学习融合组合求解器试试

04. Spotlight | 加速NAS,仅用0.1秒完成搜索

05. Spotlight | 华盛顿大学:图像分类中对可实现攻击的防御(视频解读)


4、Poster

01. Poster | 华为诺亚:巧妙思想,NAS与「对抗」结合,速率提高11倍

02. Poster | 抛开卷积,多头自注意力能够表达任何卷积操作
03. Poster | NAS 太难了,搜索结果堪比随机采样!华为给出 6 条建议
04.  Poster | 清华提 NExT 框架,用「神经元执行树」学习可解释性
05. Poster | 谷歌最新研究:用“复合散度”量化模型合成泛化能力
06. Poster | 完胜 BERT,谷歌最佳 NLP 预训练模型开源,单卡训练仅需 4 天
07. Poster |  FSNet:利用卷积核概要进行深度卷积神经网络的压缩
08. Poster | "同步平均教学"框架为无监督学习提供更鲁棒的伪标签





阅读原文,直达 “ICLR 2020" 专题
登录查看更多
6

相关内容

【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
38+阅读 · 2020年3月9日
专知会员服务
44+阅读 · 2020年3月6日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
PlaNet 简介:用于强化学习的深度规划网络
谷歌开发者
13+阅读 · 2019年3月16日
Arxiv
6+阅读 · 2019年7月29日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
6+阅读 · 2018年3月28日
VIP会员
相关VIP内容
相关论文
Arxiv
6+阅读 · 2019年7月29日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
6+阅读 · 2018年3月28日
Top
微信扫码咨询专知VIP会员