论文题目:Learning Versatile Neural Architectures by Propagating Network Codes

作者:丁明宇,霍宇琦,卢浩宇,杨林杰,王哲,卢志武,王井东,罗平

论文概述:这项工作探索了如何设计一个能够适应多种异构视觉任务的神经网络,例如图像分割、3D 目标检测和视频动作识别。因为不同任务中的网络架构搜索(NAS)空间和方法都是不一致的,这个问题非常具有挑战性。我们从两个方面解决这个问题。我们首先为多个任务设计了统一的网络空间,并在许多广泛使用的数据集上,包括 ImageNet、Cityscapes、KITTI 和HMDB51,来构建多任务的NAS基准(NAS-Bench-MR)。我们进一步提出了网络编码传播(NCP),它反向传播神经预测器的梯度,以沿着所需的梯度方向直接更新架构的编码,从而可以适用于多种任务和优化目标。

与通常专注于单个任务的现有的NAS技术不同,NCP 具有几个独特的优点。(1)NCP将架构优化从数据驱动转变为架构驱动,实现了在不同数据分布的多任务之间联合搜索架构。(2) NCP 从网络编码中而不是原始数据中学习,使其能够跨数据集有效地更新架构。(3) 除了我们的NAS-Bench-MR之外,NCP 在其他的NAS基准测试中表现良好,例如NAS-Bench-201。(4) NCP对任务间、跨任务和任务内的深入研究,即多任务神经架构和不同任务之间的架构转移,显示了跨任务神经架构设计的重要性。例如,在减少了17%的计算量的情况下,NCP 返回的单个网络架构在 ImageNet-50-1000 和 Cityscapes两个数据集上分别实现了86%的准确率和77.16%的 mIoU,优于其他对比方案。更有趣的是,在相同的计算量下,NCP 能够实现从语义分割架构转移到3D目标检测,并优于直接在 3D 检测上搜索的架构。

成为VIP会员查看完整内容
12

相关内容

ICLR 2022 放出了本届会议的论文接收结果:共有 54 篇 Oral(口头报告)论文和 176 篇 Spolight 论文,论文接收总数 1095 篇,最终投稿量 3391 篇,论文接收率 32.3%。
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
专知会员服务
23+阅读 · 2021年9月16日
专知会员服务
15+阅读 · 2021年9月15日
MIT《图神经网络的任务结构与泛化》,22页ppt
专知会员服务
23+阅读 · 2021年2月28日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
19+阅读 · 2020年10月24日
专知会员服务
43+阅读 · 2020年9月3日
【KDD2020-Google】动态图设计的图学习
专知会员服务
34+阅读 · 2020年7月28日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
43+阅读 · 2020年6月18日
【AAAI2022】跨域少样本图分类
专知
1+阅读 · 2022年1月22日
AAAI 2022 | 面向图数据的对抗鲁棒性研究
专知
1+阅读 · 2022年1月4日
自动化所团队揭示多尺度动态编码,助力脉冲网络实现高效强化学习
中国科学院自动化研究所
0+阅读 · 2021年12月13日
无需手工设计,从零开始搜索损失函数
机器之心
0+阅读 · 2021年3月31日
图上的归纳表示学习
科技创新与创业
22+阅读 · 2017年11月9日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
15+阅读 · 2020年2月5日
A Comprehensive Survey on Graph Neural Networks
Arxiv
21+阅读 · 2019年1月3日
Arxiv
27+阅读 · 2018年4月12日
VIP会员
相关VIP内容
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
专知会员服务
23+阅读 · 2021年9月16日
专知会员服务
15+阅读 · 2021年9月15日
MIT《图神经网络的任务结构与泛化》,22页ppt
专知会员服务
23+阅读 · 2021年2月28日
AAAI2021 | 学习预训练图神经网络
专知会员服务
114+阅读 · 2021年1月28日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
19+阅读 · 2020年10月24日
专知会员服务
43+阅读 · 2020年9月3日
【KDD2020-Google】动态图设计的图学习
专知会员服务
34+阅读 · 2020年7月28日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
43+阅读 · 2020年6月18日
相关资讯
【AAAI2022】跨域少样本图分类
专知
1+阅读 · 2022年1月22日
AAAI 2022 | 面向图数据的对抗鲁棒性研究
专知
1+阅读 · 2022年1月4日
自动化所团队揭示多尺度动态编码,助力脉冲网络实现高效强化学习
中国科学院自动化研究所
0+阅读 · 2021年12月13日
无需手工设计,从零开始搜索损失函数
机器之心
0+阅读 · 2021年3月31日
图上的归纳表示学习
科技创新与创业
22+阅读 · 2017年11月9日
共享相关任务表征,一文读懂深度神经网络多任务学习
深度学习世界
16+阅读 · 2017年6月23日
相关基金
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员