成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
ICLR 2020 | Bengio 一作论文:因果机制、元学习与模型泛化如何产生关联?
2020 年 4 月 6 日
机器之心
选自arXiv
作者:Yoshua Bengio 等
机器之心编译
参与:魔王
Yoshua Bengi
o 等人发表研究,基于学习器适应新分布的速度提出一种元学习因果结构。
Yoshua Bengio 等人基于学习器适应新分布的速度提出一种元学习因果结构,这些新分布由干预、智能体动作以及其它非稳态(non-stationarity)导致的稀疏分布变化引起。这项研究证明,在此假设下,正确的因果结构选择会使学习器更快地适应修改后的分布,因为在所学知识经过适当模块化后,分布变化将集中在一或多个机制中。这导致稀疏的预期梯度,以及在适应此类变化时需要重新学习的有效自由度的数量较少。因而,该研究将适应修改后分布的速度作为元学习的目标,表明这可用于决定两个观测变量之间的因果关系。
分布变化无需对应标准干预,学习器不具备关于干预的直接知识。该研究证明,因果结构可通过连续变量进行参数化,并以端到端的形式学得。研究者还探索了如何将这些想法用于学习编码器来映射低级观测变量与导致更快速分布外适应的未观测因果变量,进而学得一个表示空间,使之满足独立机制以及动作和非稳态导致的机制内微小稀疏变化的假设。
论文链接:https://arxiv.org/pdf/1901.10912.pdf
机器学习方法的泛化难题
目前的机器学习方法在训练分布以外的数据上泛化效果较弱,而泛化在实践中又是必然的。因此在与训练数据来自同一分布的测试集上取得优秀的泛化效果还不够,我们还希望在一个数据集上学得的内容可以在其它相关分布上实现很好的泛化。这些分布可能包含学习器见过的概念,而变化通常源于智能体的动作。一般而言,我们希望先前学得的知识能够形成坚实的基础,使学习器很快地适应新型相关分布,即获得优异的迁移结果。学习器可能仍需学习一些新概念,但是由于大部分其它相关概念(及其构成)已经被学习器捕捉,因此在迁移分布上的学习将非常迅速。
在缺乏假设的情况下,在无关的分布上实现成功的迁移是不可能的。这项研究假设在以适当的模块化方式表示知识时,分布变化是稀疏的,只有一个或少量模块发生变化。当分布变化由一或多个智能体的动作引起(如因果关系文献中探讨的干预)时尤其如此,即因果变量被限定为某个特定值。通常,智能体很难同时影响多个底层因果变量,尽管该研究并未过多涉及智能体学习,但它利用了智能体学习环境来帮助发现这些变量及其彼此之间的因果关系。
要想激发对因果结构推断的需求,你需要考虑真正实施或在想象中实施干预。若要以考虑干预的方式进行适当规划,那么你需要想象干预导致的变量联合分布的变化,即使之前从未见过这种变化。这超出了良好迁移学习的范畴,需要因果学习和因果推理。因此,仅学习观测变量的联合分布还不够。你还应当充分学习底层高级变量及其与恰当推断干预效果的因果关系。例如,A=Raining causes B=Open Umbrella(反之则不然)。改变 Raining 的边缘概率(如由于天气发生变化)不会改变 A 和 B 之间的关联机制(P(B|A)),但这会对 P(B) 产生影响。反过来,智能体对 B (Open umbrella) 的干预不会影响到 A (Raining)。这种不对称仅从 (A, B) 训练对中通常是无法看到的,除非分布发生变化,比如干预引起的分布变化。
这是该研究的动机,即学习器基于未必已知的干预带来的一组分布进行学习,不仅能够捕捉联合分布,还能发现一些底层因果结构。
Yoshua Bengio 等人的新思路
机器学习方法通常利用某种形式的数据分布假设(没有免费午餐定理告诉我们不要对泛化抱有信心)。该研究不仅考虑数据分布假设,还考虑分布的变化(如由于智能体的某些动作,训练分布转变为迁移分布)。该研究依赖这一假设:当关于分布的知识得到恰当表示时,分布的变化较小。这得益于底层假设(不过该假设很难直接验证):由于干预的某种泛化形式导致分布变化,因此仅有一个或少量真值机制发生改变。
如何才能利用这一假设呢?该研究进行了理论和实验验证,发现如果拥有正确的知识表示,则在训练分布上经过良好训练的模型能够快速适应迁移分布。这得益于该研究的假设:真值数据生成过程是独立机制的组成部分,当训练分布变成迁移分布时,仅有少量真值机制和参数需要改变。因此,捕获对应知识分解的模型仅需要少量更新和示例即可适应迁移分布。下文将展示,在未经更改的参数上预期梯度接近于 0(前提是模型在训练分布上得到很好的训练),因此在适应迁移分布的过程中有效搜索空间将大大缩小,从而实现快速适应。
因此,基于「正确的知识表示空间带来微小的分布变化」这一假设,研究者定义了度量适应速度的元学习目标,从而优化知识的表示、分解和结构化方式。这是该研究的核心想法。注意,在存在更多非稳态(即分布出现很多变化)时获得的信号也会更强,就像元学习中更多的元示例会带来更好的结果一样。
通过这种方式,研究者将机器学习领域通常认为的麻烦事(非稳态、不受控制的干预等导致的分布变化)转换成训练信号,从而找到一种恰当的方式将知识分解为匹配微小变化这一假设的组件和机制。因此,研究者最终以端到端的方式对在分布变化上的快速迁移及其稳健性进行优化。如果数据真的基于独立因果机制的组成部分生成,则存在模拟该结构的知识分解。如果在每个时间步中,现实世界智能体只能改变一个或少量高级变量(或生成这些高级变量的相关机制),则该研究关于(正确知识表示的)微小变化的假设得到验证。此外,除了实现快速迁移以外,该研究或许还能将对真实因果分解的近似恢复为独立机制(达到观测和干预能够揭示这些机制的程度)。
何为因?何为果?
学习具备两个离散变量的因果图
假设 A 和 B 是可以取 N 个可能值的离散变量,则考虑使用以下公式(A → B 模型和 B → A 模型)来估计其联合分布:
关于适应迁移分布的实验
研究者进行了多次实验,来对比正确的因果模型和不正确模型在迁移分布上的学习曲线。在来自不同但具备相关性的迁移分布的数据上仅执行少量梯度步的适应对于获得元学习算法可用的信号至关重要。为了展示适应的效果,促进对来自迁移分布的少量数据的利用,研究者在离散随机变量上对模型进行试验,变量可取 N = 10 个可能值。
参考阅读:
贝叶斯网络之父 Judea Pearl 力荐、LeCun 点赞,这篇长论文全面解读机器学习中的因果关系
本
文为机器之心编译,
转载请联系本公众号获得授权
。
✄------------------------------------------------
加入机器之心(全职记者 / 实习生):
hr@jiqizhixin.com
投稿或寻求报道:content
@jiqizhixin.com
广告 & 商务合作:
bd@jiqizhixin.com
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
分布变化
关注
0
最新《多任务学习》综述,39页pdf
专知会员服务
263+阅读 · 2020年7月10日
CVPR2020最新《小样本学习》综述教程,145页ppt带你学习最新FSL进展
专知会员服务
243+阅读 · 2020年6月20日
【斯坦福大学博士论文】自监督场景表示学习, 97页pdf
专知会员服务
92+阅读 · 2020年6月19日
因果关联学习,Causal Relational Learning
专知会员服务
182+阅读 · 2020年4月21日
【ICML2020投稿论文-DeepMind】时序差分学习的推理与泛化,Temporal Difference Learning
专知会员服务
25+阅读 · 2020年3月16日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
2020年MIT出版社新书《因果推理原理:基础与学习算法》,289页pdf
专知会员服务
466+阅读 · 2020年2月17日
最新「因果推断Causal Inference」综述论文38页pdf,Buffalo、Georgia、阿里巴巴、Virginia
专知会员服务
180+阅读 · 2020年2月11日
【基于元学习的推荐系统】5篇相关论文
专知会员服务
87+阅读 · 2020年1月20日
【图灵奖Yoshua Bengio】ICLR2020论文:一个元转移的目标学习解开因果机制(A Meta-Transfer Objective for Learning to Disentangle Causal Mechanisms)
专知会员服务
54+阅读 · 2019年9月26日
图灵奖Yoshua Bengio ICLR 2020再出新作:通过元学习发掘因果机制
学术头条
15+阅读 · 2019年12月25日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
论文浅尝 | 时序与因果关系联合推理
开放知识图谱
35+阅读 · 2019年6月23日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
专知
193+阅读 · 2019年4月14日
迁移自适应学习最新综述,附21页论文下载
专知
33+阅读 · 2019年3月13日
隐藏着的因果关系,如何让相同的机器学习模型变得不同
机器之心
7+阅读 · 2019年2月6日
元学习究竟是什么?这《基于梯度的元学习》199页伯克利博士论文带你回顾元学习最新发展脉络
专知
39+阅读 · 2018年12月27日
学界 | 最大化互信息来学习深度表示,Bengio等提出Deep INFOMAX
机器之心
10+阅读 · 2018年9月6日
「元学习」解析:学习如何梯度下降与学习新的算法
AI科技评论
5+阅读 · 2018年4月30日
CICC科普栏目|如何让机器人自主行动?伯克利利用神经网络动力学实现基于模型的强化学习
人工智能学家
4+阅读 · 2017年12月2日
A Survey on Causal Inference
Arxiv
110+阅读 · 2020年2月5日
Meta-World: A Benchmark and Evaluation for Multi-Task and Meta Reinforcement Learning
Arxiv
33+阅读 · 2019年10月24日
Meta-Learning with Differentiable Convex Optimization
Arxiv
5+阅读 · 2019年4月23日
Progressive Sparse Local Attention for Video object detection
Arxiv
4+阅读 · 2019年3月21日
Improving Image Captioning by Leveraging Knowledge Graphs
Arxiv
8+阅读 · 2019年1月25日
Large Margin Few-Shot Learning
Arxiv
11+阅读 · 2018年7月8日
Strong Baselines for Neural Semi-supervised Learning under Domain Shift
Arxiv
4+阅读 · 2018年4月25日
Wasserstein Auto-Encoders
Arxiv
6+阅读 · 2018年3月12日
Recursive Feature Generation for Knowledge-based Learning
Arxiv
4+阅读 · 2018年1月31日
Learning Hierarchical Features for Visual Object Tracking with Recursive Neural Networks
Arxiv
13+阅读 · 2018年1月6日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
分布变化
因果结构
学习器
元学习
泛化
模型泛化
相关VIP内容
最新《多任务学习》综述,39页pdf
专知会员服务
263+阅读 · 2020年7月10日
CVPR2020最新《小样本学习》综述教程,145页ppt带你学习最新FSL进展
专知会员服务
243+阅读 · 2020年6月20日
【斯坦福大学博士论文】自监督场景表示学习, 97页pdf
专知会员服务
92+阅读 · 2020年6月19日
因果关联学习,Causal Relational Learning
专知会员服务
182+阅读 · 2020年4月21日
【ICML2020投稿论文-DeepMind】时序差分学习的推理与泛化,Temporal Difference Learning
专知会员服务
25+阅读 · 2020年3月16日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
2020年MIT出版社新书《因果推理原理:基础与学习算法》,289页pdf
专知会员服务
466+阅读 · 2020年2月17日
最新「因果推断Causal Inference」综述论文38页pdf,Buffalo、Georgia、阿里巴巴、Virginia
专知会员服务
180+阅读 · 2020年2月11日
【基于元学习的推荐系统】5篇相关论文
专知会员服务
87+阅读 · 2020年1月20日
【图灵奖Yoshua Bengio】ICLR2020论文:一个元转移的目标学习解开因果机制(A Meta-Transfer Objective for Learning to Disentangle Causal Mechanisms)
专知会员服务
54+阅读 · 2019年9月26日
热门VIP内容
开通专知VIP会员 享更多权益服务
《支持 ML/AI 的下一代智能自主网络系统:性能提升与管理》177页
《飞行训练指导:夜间熟悉》152页
数据:联合作战的新弹药
《混合现实飞行模拟器中的夜视镜仿真:无缝集成真实世界》最新54页
相关资讯
图灵奖Yoshua Bengio ICLR 2020再出新作:通过元学习发掘因果机制
学术头条
15+阅读 · 2019年12月25日
图神经网络火了?谈下它的普适性与局限性
机器之心
21+阅读 · 2019年7月29日
论文浅尝 | 时序与因果关系联合推理
开放知识图谱
35+阅读 · 2019年6月23日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
专知
193+阅读 · 2019年4月14日
迁移自适应学习最新综述,附21页论文下载
专知
33+阅读 · 2019年3月13日
隐藏着的因果关系,如何让相同的机器学习模型变得不同
机器之心
7+阅读 · 2019年2月6日
元学习究竟是什么?这《基于梯度的元学习》199页伯克利博士论文带你回顾元学习最新发展脉络
专知
39+阅读 · 2018年12月27日
学界 | 最大化互信息来学习深度表示,Bengio等提出Deep INFOMAX
机器之心
10+阅读 · 2018年9月6日
「元学习」解析:学习如何梯度下降与学习新的算法
AI科技评论
5+阅读 · 2018年4月30日
CICC科普栏目|如何让机器人自主行动?伯克利利用神经网络动力学实现基于模型的强化学习
人工智能学家
4+阅读 · 2017年12月2日
相关论文
A Survey on Causal Inference
Arxiv
110+阅读 · 2020年2月5日
Meta-World: A Benchmark and Evaluation for Multi-Task and Meta Reinforcement Learning
Arxiv
33+阅读 · 2019年10月24日
Meta-Learning with Differentiable Convex Optimization
Arxiv
5+阅读 · 2019年4月23日
Progressive Sparse Local Attention for Video object detection
Arxiv
4+阅读 · 2019年3月21日
Improving Image Captioning by Leveraging Knowledge Graphs
Arxiv
8+阅读 · 2019年1月25日
Large Margin Few-Shot Learning
Arxiv
11+阅读 · 2018年7月8日
Strong Baselines for Neural Semi-supervised Learning under Domain Shift
Arxiv
4+阅读 · 2018年4月25日
Wasserstein Auto-Encoders
Arxiv
6+阅读 · 2018年3月12日
Recursive Feature Generation for Knowledge-based Learning
Arxiv
4+阅读 · 2018年1月31日
Learning Hierarchical Features for Visual Object Tracking with Recursive Neural Networks
Arxiv
13+阅读 · 2018年1月6日
大家都在搜
无人艇
笛卡尔
大型语言模型
无人机蜂群
时间序列
RE-NET
palantir
PRML
壁画
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top