Differentiable Architecture Search (DARTS) has attracted extensive attention due to its efficiency in searching for cell structures. DARTS mainly focuses on the operation search and derives the cell topology from the operation weights. However, the operation weights can not indicate the importance of cell topology and result in poor topology rating correctness. To tackle this, we propose to Decouple the Operation and Topology Search (DOTS), which decouples the topology representation from operation weights and makes an explicit topology search. DOTS is achieved by introducing a topology search space that contains combinations of candidate edges. The proposed search space directly reflects the search objective and can be easily extended to support a flexible number of edges in the searched cell. Existing gradient-based NAS methods can be incorporated into DOTS for further improvement by the topology search. Considering that some operations (e.g., Skip-Connection) can affect the topology, we propose a group operation search scheme to preserve topology-related operations for a better topology search. The experiments on CIFAR10/100 and ImageNet demonstrate that DOTS is an effective solution for differentiable NAS.


翻译:不同的建筑搜索(DARTS)因其在搜索细胞结构方面的效率而引起了广泛的关注。DARTS主要侧重于操作搜索,并从操作重量中得出细胞地形学。但是,操作权重不能表明细胞地形学的重要性,导致地形评级不正确。为了解决这个问题,我们建议将操作和地形搜索(DOTS)脱钩,使其表层代表与操作重量脱钩,并进行明确的地形搜索。DOTS通过引入包含候选边缘组合的地形搜索空间来实现。拟议的搜索空间直接反映搜索目标,并且可以很容易扩展,以支持搜索单元中灵活数量的边缘。现有的基于梯度的NAS方法可以纳入DOTS,以便通过地形搜索进一步改进。考虑到某些操作(例如Spping-Connome)可以影响地形学,我们建议了一个小组操作搜索计划,以保存与地形有关的操作,从而更好地进行地形学搜索。在 CIFAR10/100和图像Net上进行的实验表明,DATS是不同的NAS的有效解决办法。

0
下载
关闭预览

相关内容

专知会员服务
92+阅读 · 2021年4月18日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
40+阅读 · 2020年9月27日
2700篇+机器学习推理文献大全(1996-2019),附下载
专知会员服务
30+阅读 · 2020年9月6日
专知会员服务
119+阅读 · 2020年7月22日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
60+阅读 · 2020年5月9日
专知会员服务
61+阅读 · 2020年3月19日
【新书】Python编程基础,669页pdf
专知会员服务
195+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
1+阅读 · 2021年5月31日
Arxiv
6+阅读 · 2020年10月8日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
3+阅读 · 2018年6月24日
VIP会员
相关VIP内容
专知会员服务
92+阅读 · 2021年4月18日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
40+阅读 · 2020年9月27日
2700篇+机器学习推理文献大全(1996-2019),附下载
专知会员服务
30+阅读 · 2020年9月6日
专知会员服务
119+阅读 · 2020年7月22日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
60+阅读 · 2020年5月9日
专知会员服务
61+阅读 · 2020年3月19日
【新书】Python编程基础,669页pdf
专知会员服务
195+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
相关资讯
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员