分布转移仍然是成功和可靠部署机器学习(ML)系统的重大障碍。只有理解基准测试根本无法捕捉所有可能发生的变化,才能长期解决这些漏洞;同样重要的是,通过仔细实验AI系统以理解它们在实际转移中的失败情况。本论文描述了我在建立可信和可靠的机器学习基础方面的工作。调查的工作大致分为三个主要类别:(i)设计现实世界分布转移结构的正式、实用的特征描述;(ii)利用这种结构开发在处理此类转移时具有证明正确性和高效性的学习算法;以及(iii)实验现代ML系统,以理解现实世界中重尾分布和分布转移的实际影响,包括平均和最坏情况。

第一部分描述了对深度神经网络的对抗性攻击进行大规模认证的工作。所提出的方法可用于认证对测试样本、训练数据或更一般地任何影响模型最终预测的输入的攻击的鲁棒性。在第二部分中,我们重点关注转移的潜变量模型,借鉴了因果关系和其他现实世界变化的结构编码概念。我们展示了这些模型如何通过环境/干预复杂性这一新的视角对使用多个分布进行鲁棒深度学习的方法进行正式分析。环境/干预复杂性是域泛化和因果表示学习的核心统计度量,量化了误差和/或结构可辨识性条件作为可用训练分布的数量和多样性的函数。最后,在第三部分中,我们广泛探索了更好地理解和利用自然数据变化的方法,并展示了由此得出的见解如何促进新方法的设计,使其在现实世界中表现得更加鲁棒和可靠。

预测算法的评估标准及其价值在于其对未见测试数据的表现。在传统机器学习(ML)中,通常假设这些数据是相互独立且来自与训练数据相同的分布(这被称为IID假设)。然而,在现实世界中,这种条件几乎从未满足。IID假设作为一种有价值的抽象,为研究如何高效和可靠地从数据中学习提供了便利。但统计学家早已明白,这一假设是一种过度简化,现实世界数据的底层分布不断发生变化:例如时间上的变化、异质子群间的变化、由过去行为引发的变化等。由于现实与理想化的IID数据假设之间的这种差异,尽管一些算法在分布内的泛化能力很强,如经验风险最小化(Vapnik, 1999),但它们在现实世界中经常会在没有预警的情况下以高置信度失败。

尤其是,尽管现代深度神经网络在许多任务上表现出超人水平,但越来越多的证据表明,它们的惊人泛化能力主要限于测试数据与训练数据非常相似的情况下。特别是,这些模型似乎依赖于数据的统计信息表示,这些表示远远超越了简单的记忆训练数据,但通常无法让它们泛化到新领域或任务。这种情况甚至在对于人类来说几乎没有困难的表面上微不足道的分布转移中也会出现(Beery et al., 2018;Geirhos et al., 2018)。因此,现代最先进的生成和判别深度网络在部署时非常脆弱,在遇到微小的分布转移时容易出错(Su et al., 2019;Recht et al., 2019)。

在考虑如何解决这一弱点时,很容易想象那些促成深度学习实践成功的方法最终也会解决这个问题。过去十年ML研究的主要推动力是“基准方法”:通过在一系列代表性基准数据集上进行一致的、渐进的改进来推进一个或多个任务。尽管这种策略的成功是不可否认的,但显然它不足以实现真正鲁棒和可靠的ML未来。人工智能(AI)正在迅速应用于许多新领域,并且只会变得更加广泛,但在广泛依赖之前,其潜在的失败成本不断增加。同时,现实世界中引发这种失败的转移例子比比皆是:例如自动驾驶汽车遇到的简单景观和/或天气变化,或者用户为了增加他们期望结果的可能性而调整其行为(Hardt et al., 2016)。更糟糕的是,AI越来越多地被用于安全关键的环境中,这在面对有决心的对手时呈现出严重的安全漏洞(Sharif et al., 2016)。这种脆弱性仍然是进一步可信部署ML系统的重大障碍。

长期解决这些漏洞的方案必须基于以下理解:基准测试根本无法捕捉所有可能发生的变化。但同样显然的是,对所有分布转移的鲁棒性都是不可行的。相反,我们必须首先设计出对现实世界分布转移的精确、现实的数学定义:通过正式指定我们希望具备鲁棒性的转移“威胁模型”,我们才能在正式的鲁棒性保证方面取得可靠进展。同时,ML理论和实践之间(特别是在深度学习中)常常存在不匹配,因此仅有数学定义的转移是不够的。还必须仔细实验AI系统,以理解它们在实践中的失败模式——只有通过这种实验,我们才能理解并调和现实世界数据与我们对其数学理解之间的差异。这反过来将推动新型、更可靠和可解释的ML方法的发展,并在性能方面带来实际的下游收益。

本论文描述了通过结合这两种核心方法来建立可信和可靠机器学习基础的进展。具体来说,调查的工作大致分为三个主要类别:(i)设计现实世界分布转移结构的正式、实用的特征描述,包括良性和对抗性的;(ii)利用这种结构开发处理此类转移时具备证明正确性和高效性的学习算法;以及(iii)实验现代ML系统,以理解分布转移的实际影响,包括平均和最坏情况,以便未来的分析能更好地捕捉我们期望AI在未来遇到的各种困难。

成为VIP会员查看完整内容
22

相关内容

【MIT博士论文】高效可靠深度学习的共形方法,213页pdf
专知会员服务
39+阅读 · 2023年11月12日
【MIT博士论文】从未整理数据中的鲁棒学习,220页pdf
专知会员服务
53+阅读 · 2023年11月10日
【CMU博士论文】开放环境视频中的多人三维重建,184页pdf
专知会员服务
32+阅读 · 2023年10月11日
【MIT博士论文】多模态:模型、算法与应用,196页pdf
专知会员服务
113+阅读 · 2023年8月17日
【MIT博士论文】异构医疗数据表示学习,193页pdf
专知会员服务
57+阅读 · 2022年9月3日
【2022新书】深度学习归一化技术,117页pdf
专知
24+阅读 · 2022年11月25日
【干货书】优化算法,232页pdf
专知
25+阅读 · 2022年9月8日
【硬核书】树与网络上的概率,716页pdf
专知
23+阅读 · 2021年12月8日
【干货书】概率,统计与数据,513页pdf
专知
34+阅读 · 2021年11月27日
深度多模态表示学习综述论文,22页pdf
专知
30+阅读 · 2020年6月21日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
157+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
24+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员