本论文建立了语境结构理论,用数学方法表征表征学习的机制,也称为预训练。尽管基础模型在实践中取得了显著的成功,但仍不清楚它们学习到的表征是什么,以及这些表征为何对各种不同的下游任务有用。对表征学习的科学理解至关重要,尤其是在模型规模扩展已经呈现边际效益递减的情况下,设计新的预训练方法成为进一步发展的必要条件。 先前的工作对不同的表征学习方法进行了各自不同的处理,而语境结构理论则提供了一个统一的框架,用于阐明这些方法学习到的表征。核心论点是,表征是通过输入 X 和一个上下文变量 A 之间的关联来学习的。我们证明了,如果一个编码器捕获了这种关联的最大信息,在这种情况下我们说编码器学习了“语境结构”,那么它将在与该上下文兼容的任务类上达到最佳表现。我们还展示了,当 X 和 A 之间的关联既不太强也不太弱时,上下文最为有用。语境结构理论的重要含义是,仅仅增加模型规模将带来递减的回报,而进一步的进展需要更好的上下文。 我们证明了许多现有的预训练目标可以学习语境结构,包括监督学习、自监督学习、生成模型等。在此基础上,我们提出了两个通用目标——SVME 和 KISE,用于学习语境结构。我们还展示了如何将多个上下文混合在一起,这是从现有上下文中创建更好上下文的轻松方法。然后,我们为表征学习证明了统计学习界限,并将该框架扩展到半监督学习的谱变换核回归。最后,我们讨论了从预训练到下游任务的数据分布变化的影响。

成为VIP会员查看完整内容
1

相关内容

【阿姆斯特丹博士论文】在语言模型中寻找结构
专知会员服务
25+阅读 · 2024年11月27日
【MIT博士论文】物理启发的生成式模型
专知会员服务
25+阅读 · 2024年9月6日
【MIT博士论文】理解与提升机器学习模型的表征鲁棒性
专知会员服务
26+阅读 · 2024年8月26日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Arxiv
168+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
453+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
Arxiv
167+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员