【NeurIPS 2020】基于因果干预的小样本学习

2020 年 10 月 7 日 专知


我们发现了在流行的小样本学习(FSL)方法中一直被忽视的一个缺陷: 预训练的知识确实是限制性能的一个混杂因素。这一发现源于我们的因果假设: 一个关于预训练的知识、样本特征和标签之间因果关系的结构性因果模型(SCM)。正因为如此,我们提出了一种新的FSL范式:干预少样本学习(IFSL)。具体来说,我们开发三个有效的IFSL算法,它本质上是一个因果干预SCM学习:目前在因果视图的上限。值得注意的是,IFSL的贡献与现有的基于微调和元学习的FSL方法是正交的,因此IFSL可以改进所有这些方法.


https://arxiv.org/abs/2009.13000


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“AI177” 可以获取《【干货书】机器学习Primer,122页pdf》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
5

相关内容

专知会员服务
45+阅读 · 2020年10月22日
专知会员服务
45+阅读 · 2020年10月5日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
专知会员服务
87+阅读 · 2020年1月20日
【ICML2020】小样本目标检测
专知
7+阅读 · 2020年6月2日
最新《生成式对抗网络GAN进展》论文
专知
95+阅读 · 2019年4月5日
Arxiv
0+阅读 · 2020年11月28日
Arxiv
0+阅读 · 2020年11月26日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
10+阅读 · 2017年12月29日
Arxiv
4+阅读 · 2016年12月29日
VIP会员
相关VIP内容
专知会员服务
45+阅读 · 2020年10月22日
专知会员服务
45+阅读 · 2020年10月5日
【ACMMM2020-北航】协作双路径度量的小样本学习
专知会员服务
28+阅读 · 2020年8月11日
注意力图神经网络的小样本学习
专知会员服务
191+阅读 · 2020年7月16日
【CVPR2020-北京大学】自适应间隔损失的提升小样本学习
专知会员服务
83+阅读 · 2020年6月9日
专知会员服务
87+阅读 · 2020年1月20日
相关论文
Arxiv
0+阅读 · 2020年11月28日
Arxiv
0+阅读 · 2020年11月26日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
10+阅读 · 2017年12月29日
Arxiv
4+阅读 · 2016年12月29日
Top
微信扫码咨询专知VIP会员