深度学习的发展导致了在各种应用领域的各种任务上的显著性能提升,这些应用领域包括计算机视觉、自然语言处理、强化学习、生成模型,以及最近从图结构数据中进行的关系学习。这一成功的主要原因是计算能力的提高,这允许深度和高度参数化的神经网络架构,这些架构可以从原始数据中学习复杂的特征转换。然而,深度神经网络的高表示能力往往是以高模型复杂度为代价的,这指的是高参数化,以及与深度学习相关的内存和计算负担。**在本文中,我依靠参数有效的神经算子,对数据的适当建模假设和网络结构的归纳偏差,在几个应用领域提出更简单的神经网络模型。**对于我工作的每个应用领域,我使用这些效率原则的组合来设计新颖的方法。首先,在医学图像处理的背景下,我观察到空间对齐的神经图像比自然图像表现出更少的自由度,这证明使用低容量卷积算子是合理的。我通过应用参数高效的卷积变体来实现这一点。我展示了早期阿尔茨海默病预测的最先进结果,同时使用的参数减少了多达125倍,乘累加操作减少了17倍以上。对于设计用于识别受试者亚型的神经图像的无监督方法也得出了类似的结论。其次,我着手缓解从零开始训练参数高效的深度模型的挑战。这可以减少在资源受限的"边缘"设备上训练深度模型的不可行性。所提方法基于一个简化的网络结构假设,即参数无关性,允许在组合多臂匪徒的背景下建模问题。该方法可以动态地,即在训练期间,在遵循预定义的内存使用预算的同时,在超参数化模型中识别高性能紧凑的子网络。这是通过将显著性指标与每个神经元相关联来实现的,然后用于驱动参数激活,类似于门控机制,同时学习参数。因此,深度神经网络训练和推理过程中的计算和内存负担都显著减少。最后,提出一种深度概率模型,用于学习动态图中的无监督节点和社区嵌入。基于网络固有的社团结构,引入了关于边形成机制的结构归纳偏差。此外,我还假设节点和社区都是平滑的时间演化,其灵感来自于数据中缺乏破坏性事件。本文提出一种该方法的参数高效实现,在各种动态预测任务上优于最先进的图卷积网络。

成为VIP会员查看完整内容
30

相关内容

剑桥大学(英语:University of Cambridge;勋衔:Cantab)为一所座落于英国剑桥郡剑桥市的研究型大学。它是英语世界中历史第二悠久的大学,也是世界现存第四古老的大学。剑桥大学的起源为一群牛津大学的学者,因与牛津市民发生冲突而移居至剑桥。剑桥与牛津这两所在中世纪建立的英国大学,在校务运作、学术声望、社会地位等多方面都非常相似,经常合称为“牛剑”
【EPFL博士论文】基于transformer的高效语音识别,162页pdf
专知会员服务
42+阅读 · 2023年2月18日
【普林斯顿博士论文】深度学习安全性,275页pdf
专知会员服务
61+阅读 · 2023年2月9日
专知会员服务
15+阅读 · 2021年9月15日
自然语言处理现代方法,176页pdf
专知会员服务
263+阅读 · 2021年2月22日
最全综述 | 医学图像处理
计算机视觉life
55+阅读 · 2019年6月15日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年4月14日
VIP会员
相关VIP内容
【EPFL博士论文】基于transformer的高效语音识别,162页pdf
专知会员服务
42+阅读 · 2023年2月18日
【普林斯顿博士论文】深度学习安全性,275页pdf
专知会员服务
61+阅读 · 2023年2月9日
专知会员服务
15+阅读 · 2021年9月15日
自然语言处理现代方法,176页pdf
专知会员服务
263+阅读 · 2021年2月22日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员