受限条件下的表示学习很少有学科能像机器学习这样在过去十年中经历如此快速的发展。即使在过去的几年中,研究领域也在不断演变,并重新聚焦于新的挑战,这些挑战往往由改变社会、影响人类思维、生活和工作的潜力所驱动。支撑这些进步的核心组件是表示学习:一种将输入转换为新表示的技术,以捕捉数据中的结构和模式。本论文并不专注于改进典型学习范式中的表示学习,而是探索其在某些情况下表现不佳的实例。我们的重点是在受限条件下学习表示,并朝着在表示学习表现不稳定、性能较差或“效果不佳”的环境中解锁表示学习迈出一步。第一章从表示学习的概述开始。它提供了正式的定义,探讨了早期表示学习算法的历史,并概述了这些方法通常需要满足的两个条件。然后,我们研究了打破这些条件会如何干扰表示学习,并列举了这些限制在现实世界中的几种表现场景。第二章,我们聚焦于数据稀缺的限制,并以分子科学中的一个应用为动机展开研究。我们探索利用基于物理的分子模拟数据(借助数十年的技术进步)来学习捕捉基本蛋白质-配体结合模式的表示。对于我们的目标任务——预测小分子是否激活或抑制特定蛋白质,我们发现使用基于模拟数据训练的表示作为起点,可以显著提高建模性能。第三章继续关注数据稀缺问题,但从不同的角度解决这一问题。我们开发了一种元学习算法,该算法能够使用极少量的标注样本学习如何将输入转换为新任务的表示。与之前需要在标注样本上进行微调的工作不同,我们的方法在推理过程中不更新模型参数,并且在许多少样本学习基准测试中达到了新的最先进水平。第四章,我们转向学习离散表示的限制。这一范式具有挑战性,因为离散化在通常用于学习表示的光滑目标函数中引入了不可微分的点。我们专注于一种流行的离散化形式——向量量化,并改变了梯度通过这一操作的方式。在11种使用向量量化的不同范式中,我们的梯度估计器提高了性能并减少了训练不稳定性。第五章总结了本论文的贡献,并提出了未来工作的可能方向。

成为VIP会员查看完整内容
25

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【斯坦福博士论文】在受限条件下学习表示
专知会员服务
20+阅读 · 2月28日
【HKUST博士论文】复杂任务下的元学习
专知会员服务
21+阅读 · 1月14日
【牛津大学博士论文】序列决策中的迁移学习
专知会员服务
24+阅读 · 2024年11月10日
强化学习中迁移的基础:知识形态的分类
专知会员服务
34+阅读 · 2023年12月6日
【DTU博士论文】结构化表示学习的泛化
专知会员服务
52+阅读 · 2023年4月27日
【AAAI2023】自适应黎曼空间中的自监督连续图学习
专知会员服务
27+阅读 · 2022年12月2日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
37+阅读 · 2022年10月4日
【南洋理工-CVPR2022】视觉语言模型的条件提示学习
专知会员服务
34+阅读 · 2022年3月13日
专知会员服务
66+阅读 · 2021年7月25日
基于模型的强化学习综述
专知
36+阅读 · 2022年7月13日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
19+阅读 · 2020年6月26日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
学会原创 | 自然语言的语义表示学习方法与应用
中国人工智能学会
11+阅读 · 2019年3月7日
基于逆强化学习的示教学习方法综述
计算机研究与发展
15+阅读 · 2019年2月25日
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
446+阅读 · 2023年3月31日
Arxiv
75+阅读 · 2023年3月26日
Arxiv
162+阅读 · 2023年3月24日
Arxiv
23+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【斯坦福博士论文】在受限条件下学习表示
专知会员服务
20+阅读 · 2月28日
【HKUST博士论文】复杂任务下的元学习
专知会员服务
21+阅读 · 1月14日
【牛津大学博士论文】序列决策中的迁移学习
专知会员服务
24+阅读 · 2024年11月10日
强化学习中迁移的基础:知识形态的分类
专知会员服务
34+阅读 · 2023年12月6日
【DTU博士论文】结构化表示学习的泛化
专知会员服务
52+阅读 · 2023年4月27日
【AAAI2023】自适应黎曼空间中的自监督连续图学习
专知会员服务
27+阅读 · 2022年12月2日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
37+阅读 · 2022年10月4日
【南洋理工-CVPR2022】视觉语言模型的条件提示学习
专知会员服务
34+阅读 · 2022年3月13日
专知会员服务
66+阅读 · 2021年7月25日
相关资讯
基于模型的强化学习综述
专知
36+阅读 · 2022年7月13日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
19+阅读 · 2020年6月26日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
学会原创 | 自然语言的语义表示学习方法与应用
中国人工智能学会
11+阅读 · 2019年3月7日
基于逆强化学习的示教学习方法综述
计算机研究与发展
15+阅读 · 2019年2月25日
相关基金
国家自然科学基金
18+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
相关论文
微信扫码咨询专知VIP会员