【ICLR2022】通过传播网络代码学习通用的神经结构

2022 年 2 月 13 日 专知

论文题目:Learning Versatile Neural Architectures by Propagating Network Codes

作者:丁明宇,霍宇琦,卢浩宇,杨林杰,王哲,卢志武,王井东,罗平


论文概述:这项工作探索了如何设计一个能够适应多种异构视觉任务的神经网络,例如图像分割、3D 目标检测和视频动作识别。因为不同任务中的网络架构搜索(NAS)空间和方法都是不一致的,这个问题非常具有挑战性。我们从两个方面解决这个问题。我们首先为多个任务设计了统一的网络空间,并在许多广泛使用的数据集上,包括 ImageNet、Cityscapes、KITTI 和HMDB51,来构建多任务的NAS基准(NAS-Bench-MR)。我们进一步提出了网络编码传播(NCP),它反向传播神经预测器的梯度,以沿着所需的梯度方向直接更新架构的编码,从而可以适用于多种任务和优化目标。


与通常专注于单个任务的现有的NAS技术不同,NCP 具有几个独特的优点。(1)NCP将架构优化从数据驱动转变为架构驱动,实现了在不同数据分布的多任务之间联合搜索架构。(2) NCP 从网络编码中而不是原始数据中学习,使其能够跨数据集有效地更新架构。(3) 除了我们的NAS-Bench-MR之外,NCP 在其他的NAS基准测试中表现良好,例如NAS-Bench-201。(4) NCP对任务间、跨任务和任务内的深入研究,即多任务神经架构和不同任务之间的架构转移,显示了跨任务神经架构设计的重要性。例如,在减少了17%的计算量的情况下,NCP 返回的单个网络架构在 ImageNet-50-1000 和 Cityscapes两个数据集上分别实现了86%的准确率和77.16%的 mIoU,优于其他对比方案。更有趣的是,在相同的计算量下,NCP 能够实现从语义分割架构转移到3D目标检测,并优于直接在 3D 检测上搜索的架构。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“NCP” 就可以获取【ICLR2022】通过传播网络代码学习通用的神经结构》专知下载链接


专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI主题干货知识资料!

欢迎微信扫一扫加专知微信助手,获取最新AI专业干货知识教程资料和与专家交流咨询

点击“ 阅读原文 ”,了解使用 专知 ,查看获取70000+AI主题知识资源
登录查看更多
0

相关内容

ICLR,全称为「International Conference on Learning Representations」(国际学习表征会议),2013 年才刚刚成立了第一届。这个一年一度的会议虽然今年才办到第五届,但已经被学术研究者们广泛认可,被认为「深度学习的顶级会议」。 ICLR由位列深度学习三大巨头之二的 Yoshua Bengio 和 Yann LeCun 牵头创办。 ICLR 希望能为深度学习提供一个专业化的交流平台。但实际上 ICLR 不同于其它国际会议,得到好评的真正原因,并不只是他们二位所自带的名人光环,而在于它推行的 Open Review 评审制度。
【ICLR2022】图神经网络复杂时间序列建模
专知会员服务
89+阅读 · 2022年4月15日
【ICLR2022】通过传播网络编码学习通用的神经结构
专知会员服务
12+阅读 · 2022年2月13日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
35+阅读 · 2021年8月17日
【ICLR2021】自监督蒸馏学习视觉表示
专知会员服务
33+阅读 · 2021年4月14日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
45+阅读 · 2020年6月18日
【ICLR2021】自监督蒸馏学习视觉表示
专知
1+阅读 · 2021年4月14日
【CVPR2021】空间一致性表示学习
专知
0+阅读 · 2021年3月12日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
15+阅读 · 2020年2月5日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
19+阅读 · 2018年6月27日
VIP会员
相关VIP内容
【ICLR2022】图神经网络复杂时间序列建模
专知会员服务
89+阅读 · 2022年4月15日
【ICLR2022】通过传播网络编码学习通用的神经结构
专知会员服务
12+阅读 · 2022年2月13日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
35+阅读 · 2021年8月17日
【ICLR2021】自监督蒸馏学习视觉表示
专知会员服务
33+阅读 · 2021年4月14日
AAAI2021 | 学习预训练图神经网络
专知会员服务
115+阅读 · 2021年1月28日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
20+阅读 · 2020年10月24日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
45+阅读 · 2020年6月18日
相关基金
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员