Real-world data generation often involves complex inter-dependencies among instances, violating the IID-data hypothesis of standard learning paradigms and posing a challenge for uncovering the geometric structures for learning desired instance representations. To this end, we introduce an energy constrained diffusion model which encodes a batch of instances from a dataset into evolutionary states that progressively incorporate other instances' information by their interactions. The diffusion process is constrained by descent criteria w.r.t.~a principled energy function that characterizes the global consistency of instance representations over latent structures. We provide rigorous theory that implies closed-form optimal estimates for the pairwise diffusion strength among arbitrary instance pairs, which gives rise to a new class of neural encoders, dubbed as DIFFormer (diffusion-based Transformers), with two instantiations: a simple version with linear complexity for prohibitive instance numbers, and an advanced version for learning complex structures. Experiments highlight the wide applicability of our model as a general-purpose encoder backbone with superior performance in various tasks, such as node classification on large graphs, semi-supervised image/text classification, and spatial-temporal dynamics prediction.


翻译:真实世界中的数据生成常常涉及到实例之间的复杂相互依赖关系,违反了标准学习范例中的独立同分布数据假设,因此为了学习所需的实例表示,需要揭示几何结构。基于此,我们引入了一种能量约束的扩散模型,该模型将来自数据集的一批实例编码到逐渐涵盖其他实例信息的进化状态中,其相互作用方式促进了扩散过程。扩散过程受到关于基于潜在结构的实例表示的全局一致性的原则能量函数内在的限制。我们提供了严格的理论,它暗示了任意实例对之间最优扩散强度的闭式估计,这产生了一类新的神经编码器,即DIFFormer(diffusion-based Transformers)。DIFFormer有两个版本:一种用于处理禁止性实例数量的简单版本,复杂度为线性。另一种版本则适用于学习复杂结构。实验突出了我们的模型作为通用编码器骨干的广泛适用性,其在各种任务中均表现出卓越的性能,例如大型图的节点分类,半监督的图像/文本分类和时空动态预测。

0
下载
关闭预览

相关内容

【2023新书】随机模型基础,815页pdf
专知会员服务
96+阅读 · 2023年5月10日
 DiffRec: 扩散推荐模型(SIGIR'23)
专知会员服务
44+阅读 · 2023年4月16日
Graph Transformer近期进展
专知会员服务
60+阅读 · 2023年1月5日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员