本文探讨了信息理论在深度表示学习中的应用,旨在增强深度学习模型的理解能力和泛化能力。核心挑战是识别并剔除不必要的信息,使得模型能够捕捉输入数据中最相关的方面,而无需显式的标签监督。

我们开发了新的理论框架和实际学习目标,将经典的信息理论原则扩展到一系列机器学习场景,包括自监督学习、多视角学习和时间建模。这些方法解决了互信息估计、冗余减少和高效表示提取等关键问题,从而提供了更强大和可解释的表示。特别是,我们展示了这些方法如何改进对复杂高维数据的处理,并捕捉时变系统的基本动态,同时能够描述和缓解分布漂移的影响。

通过广泛的实证验证,我们证明了信息理论方法能够有效平衡压缩和预测,支持更加适应性强和数据高效的机器学习系统。

总体而言,本研究推动了信息理论在深度学习中的理论理解和实际应用,提供了对有效表示本质和从复杂数据中学习的挑战的新见解。

成为VIP会员查看完整内容
0

相关内容

表示学习是通过利用训练数据来学习得到向量表示,这可以克服人工方法的局限性。 表示学习通常可分为两大类,无监督和有监督表示学习。大多数无监督表示学习方法利用自动编码器(如去噪自动编码器和稀疏自动编码器等)中的隐变量作为表示。 目前出现的变分自动编码器能够更好的容忍噪声和异常值。 然而,推断给定数据的潜在结构几乎是不可能的。 目前有一些近似推断的策略。 此外,一些无监督表示学习方法旨在近似某种特定的相似性度量。提出了一种无监督的相似性保持表示学习框架,该框架使用矩阵分解来保持成对的DTW相似性。 通过学习保持DTW的shaplets,即在转换后的空间中的欧式距离近似原始数据的真实DTW距离。有监督表示学习方法可以利用数据的标签信息,更好地捕获数据的语义结构。 孪生网络和三元组网络是目前两种比较流行的模型,它们的目标是最大化类别之间的距离并最小化了类别内部的距离。
【博士论文】学习对象和关系的结构化表示
专知会员服务
31+阅读 · 2024年10月14日
【牛津大学博士论文】图机器学习的鲁棒性分析
专知会员服务
31+阅读 · 2024年4月30日
【ETHZ博士论文】在弱监督学习中施加和揭示群组结构
专知会员服务
21+阅读 · 2023年10月15日
【ICLR2021】对未标记数据进行深度网络自训练的理论分析
【ACL2020-密歇根州立大学】语言和视觉推理的跨模态关联
【干货书】高维统计学,572页pdf
专知
19+阅读 · 2021年12月3日
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
472+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
171+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员