Learning an energy-based model (EBM) in the latent space of a top-down generative model offers a powerful framework for generation across many data modalities. However, it remains unclear how its interpretability can be used to guide model design, improve generative quality, and reduce training time. Moreover, the reliance on Langevin Monte Carlo (LMC) sampling presents challenges in efficiency and sampling multimodal latent distributions. We propose a novel adaptation of the Kolmogorov-Arnold representation theorem for generative modeling and introduce the Kolmogorov-Arnold Energy Model (KAEM) to take advantage of structural and inductive biases. By constraining the prior to univariate relationships, KAEM enables fast and exact inference via the inverse transform method. With the low dimensionality of the latent space and suitable inductive biases encoded, we demonstrate that importance sampling (IS) becomes a viable, unbiased, and highly efficient posterior sampler. For domains where IS fails, we introduce a strategy based on population-based LMC, decomposing the posterior into a sequence of annealed distributions to improve LMC mixing. KAEM balances common generative modeling trade-offs, offering fast inference, interpretability, and stable training, while being naturally suited to Zettascale Computing hardware.


翻译:在自上而下生成模型的潜空间中学习基于能量的模型(EBM),为跨多种数据模态的生成提供了一个强大的框架。然而,如何利用其可解释性来指导模型设计、提高生成质量并减少训练时间,目前尚不清楚。此外,对朗之万蒙特卡洛(LMC)采样的依赖在效率和采样多模态潜分布方面带来了挑战。我们提出了一种适用于生成建模的Kolmogorov-Arnold表示定理的新颖改编,并引入了Kolmogorov-Arnold能量模型(KAEM)以利用结构和归纳偏置。通过将先验约束为单变量关系,KAEM能够通过逆变换方法实现快速且精确的推断。借助潜空间的低维度和编码的合适归纳偏置,我们证明了重要性采样(IS)成为一种可行、无偏且高效的后验采样器。对于IS失效的领域,我们引入了一种基于群体LMC的策略,将后验分解为一系列退火分布以改善LMC混合。KAEM平衡了常见的生成建模权衡,提供快速推断、可解释性和稳定训练,同时天然适合泽塔级计算硬件。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年6月19日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员