对结构化数据进行少样本学习可能是在现实生活中部署AI模型的基本要求。在经典的监督ML设置中,我们可以获得大量的标有标签的样本,这在现实环境中通常不是这样——一些例子是生化、健康、社会或天气环境。其中许多可以用图形表示,因此结构在设计能够成功处理这些场景的方法时也扮演着关键角色。因此,充分利用少数可用的标签并使我们的模型能够利用这些信息通常是很重要的,以便获得与通过数据需求方法获得的相同好的表示。该演讲展示了两件工作,从不同的角度解决了这个问题:场景图生成中新颖合成的图密度感知损失(Knyazev et al., 2020)和消息传递神经过程(Cangea & Day et al., 2020)。

https://catalinacangea.netlify.app/talk/roaidays_nov21/

成为VIP会员查看完整内容
32

相关内容

谷歌大脑《自动强化学习》教程,81页ppt!
专知会员服务
66+阅读 · 2022年8月15日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
43+阅读 · 2021年12月14日
【SIGIR2021】自然语言处理图深度学习,230页ppt
专知会员服务
93+阅读 · 2021年7月23日
专知会员服务
74+阅读 · 2021年7月21日
专知会员服务
94+阅读 · 2021年5月25日
MIT《图神经网络的任务结构与泛化》,22页ppt
专知会员服务
23+阅读 · 2021年2月28日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
106+阅读 · 2020年12月19日
【视频】几何数据嵌入表示学习,74页ppt
专知会员服务
32+阅读 · 2020年7月24日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
177+阅读 · 2020年5月29日
DeepMind:为什么GPT能为你写诗?
新智元
1+阅读 · 2022年6月3日
机器也能学会如何学习?——元学习介绍
AINLP
19+阅读 · 2019年9月22日
国家自然科学基金
21+阅读 · 2016年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年2月28日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年10月4日
Arxiv
0+阅读 · 2022年10月3日
Arxiv
0+阅读 · 2022年10月3日
Arxiv
0+阅读 · 2022年9月30日
Arxiv
16+阅读 · 2021年11月27日
Arxiv
37+阅读 · 2021年9月28日
Arxiv
14+阅读 · 2019年9月11日
VIP会员
相关VIP内容
谷歌大脑《自动强化学习》教程,81页ppt!
专知会员服务
66+阅读 · 2022年8月15日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
43+阅读 · 2021年12月14日
【SIGIR2021】自然语言处理图深度学习,230页ppt
专知会员服务
93+阅读 · 2021年7月23日
专知会员服务
74+阅读 · 2021年7月21日
专知会员服务
94+阅读 · 2021年5月25日
MIT《图神经网络的任务结构与泛化》,22页ppt
专知会员服务
23+阅读 · 2021年2月28日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
106+阅读 · 2020年12月19日
【视频】几何数据嵌入表示学习,74页ppt
专知会员服务
32+阅读 · 2020年7月24日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
177+阅读 · 2020年5月29日
相关基金
国家自然科学基金
21+阅读 · 2016年12月31日
国家自然科学基金
6+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年2月28日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
微信扫码咨询专知VIP会员