本论文旨在设计有效的方法,将已知结构融入机器学习模型中。结构的产生源于问题的形式化(例如,物理约束、聚合约束)或模型所需的属性(能效、稀疏性、鲁棒性)。在许多情况下,建模者对他们正在建模的系统有一定的了解,这必须以精确的方式进行加强。这对于提供充分的安全保证,或提高系统效率是必要的:用更少的数据训练系统,或减少计算成本。本论文在各种设置中提供了方法,这些方法建立在连续的、受约束的优化和可微统计建模(也称为深度学习)的两个基础领域之上。

论文的第一部分集中于设计和分析带有凸约束的优化问题的高效算法。特别是,它关注Frank-Wolfe算法的两个变体:第一个变体提出了一个快速的回溯线搜索算法,以自适应地设置全梯度设置中的步长;第二个变体提出了一个快速的随机Frank-Wolfe算法,用于受约束的有限和问题。我还描述了对开源受约束优化软件的贡献。这篇论文的第二部分关注设计确切强制某些约束的深度学习模型:基于物理的约束,以及概率预测模型的聚合约束。这部分利用了双层优化模型,并利用可微优化约束复杂神经网络的输出。我们证明,可以在复杂的非凸模型上强制执行复杂的非线性约束,包括概率模型。

这些例子展示了混合模型的威力,这些模型结合了数据驱动的学习,利用如深度神经网络这样的复杂非线性模型,并允许高效算法的经过深入研究的优化问题。这些混合模型帮助高度灵活的模型捕获结构模式,有时甚至不需要任何数据访问就能实现出色的性能。

近年来,机器学习模型在旨在匹配人类感知的领域(计算机视觉、音频处理、自然语言)中取得了无数的成功。这些成功是通过理解如何利用模型输入中的结构来实现的:图片、声音、文本、代码,甚至分子的数字表示[1, 2, 3, 4]。为了在工程和科学中达到相似的成功水平,模型必须纳入额外的结构性约束:模型的内部和输出都应满足某些关键属性(例如,模型内部的稀疏或低秩权重,以及模型输出的物理方程)。尽管优化领域长期以来一直关注如何实施这些约束,但将优化方法带来的结构与数据驱动模型的灵活性结合起来的努力是非常近期的[5, 6]。这篇论文提出了新颖、高效的方法,将结构融入机器学习模型中,无论是在模型的内部(第一部分)还是在模型的输出(第二部分)。我们认为这样的混合系统将是为复杂的物理应用开发高性能系统的关键。机器学习中的结构性约束最近再次将Frank-Wolfe(FW)算法家族推到了聚光灯下。Frank-Wolfe算法允许对决策变量(例如,模型权重)施加凸约束,同时保持决策变量的稀疏表示。这篇论文的第一部分开发了新颖的Frank-Wolfe算法变体,以提高算法的实际速度。此外,我们还描述了我们的两个开源优化库:COPT和CHOP。在实际环境中部署决策制定系统时,系统必须执行物理约束:差异可能导致未定义的决策。例如,如果我们预测一个地区不同粒度的水库的入水流量,不同级别的预测必须执行质量守恒;否则,会有未被计入的水量,破坏决策制定系统。这篇论文的第二部分考虑了将物理约束纳入深度学习模型的问题,采用偏微分方程和分层质量守恒的形式。

成为VIP会员查看完整内容
49

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【剑桥大学博士论文】机器学习中的分布外泛化,214页pdf
【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
77+阅读 · 2022年10月19日
【伯克利博士论文】学习在动态环境中泛化,103页pdf
专知会员服务
70+阅读 · 2022年10月12日
【MIT博士论文】实用机器学习的高效鲁棒算法,142页pdf
专知会员服务
55+阅读 · 2022年9月7日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员