泛化能力,即将从已见上下文中学习到的知识有效应用于陌生情境的能力,是人类智能的重要特征,但对当前的人工智能系统而言仍是一项重大挑战。传统的机器学习算法通常依赖于训练数据与测试数据来自相同分布的假设,因此在面临分布偏移时,其性能往往显著下降。本论文聚焦于提升泛化能力这一关键问题,尤其是在测试时泛化,即在训练阶段无法访问测试数据的前提下提高模型在测试阶段的表现。 本论文的结构如下: 1. 训练阶段的泛化模型学习:通过贝叶斯神经网络中的不变性学习实现更具泛化能力的模型训练; 1. 测试阶段的泛化模型学习:在无标签和无额外测试信息的情况下,利用元学习和变分推断技术,使模型能对每个测试样本直接进行自适应; 1. 测试阶段的泛化样本学习:采用能量模型将测试样本适配至训练分布,以避免调整模型本身,从而规避灾难性遗忘问题; 1. 测试阶段的泛化提示学习(prompt-learning):面向多模态基础模型,设计新颖的提示学习框架,涵盖针对任意类型分布偏移的测试任务专属提示生成,以及用于在线提示更新的动态测试时提示调整方法。

每一章均提出了创新方法,详细介绍了方法论与实验结果,展示了在测试阶段提升泛化能力的全面路径。 最后,论文进一步探讨了测试时泛化的历史与未来,并系统回顾了测试时自适应(Test-Time Adaptation, TTA)领域的研究进展,为测试时泛化的发展提供了全面总结与未来展望。

https://hdl.handle.net/11245.1/a165fad4-684a-4767-9e55-1caa83e59f59

成为VIP会员查看完整内容
7

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【HKUST博士论文】复杂任务下的元学习
专知会员服务
23+阅读 · 1月14日
【牛津大学博士论文】从多模态数据中学习表示,258页pdf
金融时间序列预测中的可解释人工智能(XAI)综述
专知会员服务
43+阅读 · 2024年7月25日
【斯坦福博士论文】元强化学习:算法与应用,149页pdf
专知会员服务
49+阅读 · 2023年7月11日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
27+阅读 · 2017年7月9日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
169+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
464+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员