深度学习(Deep learning, DL)已经成为现代人工智能中最成功和被广泛采用的方法之一。与这些成功相伴而来的是越来越复杂和昂贵的架构设计,其基础是一个核心概念:层。本文对层次的这一基本作用提出了挑战,并深入介绍了一种新的、无层次的深度学习范式,将输出计算为动态系统的不动点:深度均衡(DEQ)模型。

首先,我们介绍深度均衡模型的一般公式。我们讨论了这些模型如何表达“无限级”的神经网络,向前和向后解耦传递,但与传统层的成本和设计复杂性-即使在一些最具竞争力的设置(例如,语言建模,语义分割等)。

其次,我们进一步讨论了这种均衡方式带来的挑战和机遇。我们表明,DEQ公式揭示了深度学习的许多新特性,这些特性长期以来被传统的层-堆叠方案所掩盖。利用它们,我们可以训练和部署这些新的轻量级均衡算法,大大补充了深度学习的现有发展,并使我们能够在最先进的水平上改善多个现有结果(例如,光流估计)。

DEQ方法已经在理论和实证两方面引领了社区内隐深度学习的新研究领域(例如,NeurIPS 2020教程)。因此,我们通过讨论未来的工作如何进一步利用这一平衡视角来构建更可扩展、高效和准确的下一代DL算法,包括科学计算,这通常是复杂的、高维动力系统的解决方案。

成为VIP会员查看完整内容
36

相关内容

【MIT博士论文】数据高效强化学习,176页pdf
专知会员服务
85+阅读 · 2022年7月11日
【实用书】强化学习实战:Python,110页pdf
专知会员服务
147+阅读 · 2022年6月9日
《实现稳健和弹性机器学习》243页CMU博士论文
专知会员服务
32+阅读 · 2022年5月12日
专知会员服务
91+阅读 · 2021年6月11日
【CMU博士论文Wen Sun】强化学习的泛化性与效率,206页pdf
专知会员服务
91+阅读 · 2020年9月28日
【MIT博士论文】数据高效强化学习,176页pdf
【实用书】强化学习实战:Python,110页pdf
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
9+阅读 · 2022年1月16日
自然语言处理常识推理综述论文,60页pdf
专知
73+阅读 · 2019年4月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Arxiv
24+阅读 · 2021年1月25日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员