We formally map the problem of sampling from an unknown distribution with density $p_X$ in $\mathbb{R}^d$ to the problem of learning and sampling $p_\mathbf{Y}$ in $\mathbb{R}^{Md}$ obtained by convolving $p_X$ with a fixed factorial kernel: $p_\mathbf{Y}$ is referred to as M-density and the factorial kernel as multimeasurement noise model (MNM). The M-density is smoother than $p_X$, easier to learn and sample from, yet for large $M$ the two problems are mathematically equivalent since $X$ can be estimated exactly given $\mathbf{Y}=\mathbf{y}$ using the Bayes estimator $\widehat{x}(\mathbf{y})=\mathbb{E}[X\vert\mathbf{Y}=\mathbf{y}]$. To formulate the problem, we derive $\widehat{x}(\mathbf{y})$ for Poisson and Gaussian MNMs expressed in closed form in terms of unnormalized $p_\mathbf{Y}$. This leads to a simple least-squares objective for learning parametric energy and score functions. We present various parametrization schemes of interest, including one in which studying Gaussian M-densities directly leads to multidenoising autoencoders--this is the first theoretical connection made between denoising autoencoders and empirical Bayes in the literature. Samples from $p_X$ are obtained by walk-jump sampling (Saremi & Hyvarinen, 2019) via underdamped Langevin MCMC (walk) to sample from $p_\mathbf{Y}$ and the multimeasurement Bayes estimation of $X$ (jump). We study permutation invariant Gaussian M-densities on MNIST, CIFAR-10, and FFHQ-256 datasets, and demonstrate the effectiveness of this framework for realizing fast-mixing stable Markov chains in high dimensions.


翻译:我们正式地将取样问题从密度为$p_X$的未知分布($mathb{R ⁇ d$)到学习和采样问题($mathb{R ⁇ Md}$$)的未知分配问题($mathb{R ⁇ Md}美元),通过使用固定元素内核($mathbf{Y}美元)获得的美元($p_X美元),被称为M-密度和因子内核(MNM)的多重计量噪音模型(MNM)。M-密度比$p_X$更平滑,更容易从学习和采样中提取和采样,但对于构建问题,我们从Outlickral_madr=lickral_max}可以精确估算美元($mathbfr{x}(\mathf) mathf) 元内數據數據數據機內數據系的數據數據數據數據機數據數據數據數數數數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據數據系(由數數數數數數據數數數數數數數數數代數數數數數數數數數數數數數數數數數數據數據數數數數數數數數據數據數數數數數據數據數據數據數數數數據數數數數數數據數據數據數據數據數據數據數據數數數數數數數數據數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數數據數據數據數數數數數數數數數數數數數數數數數數數數

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月2日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
最新【深度生成模型】Deep Generative Models,104页ppt
专知会员服务
68+阅读 · 2020年10月24日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
【课程】纽约大学 DS-GA 1003 Machine Learning
专知会员服务
45+阅读 · 2019年10月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
已删除
将门创投
6+阅读 · 2019年1月11日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年2月19日
Arxiv
0+阅读 · 2022年2月18日
Arxiv
0+阅读 · 2022年2月18日
Arxiv
8+阅读 · 2019年2月15日
Arxiv
10+阅读 · 2018年3月23日
Arxiv
6+阅读 · 2018年2月24日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
已删除
将门创投
6+阅读 · 2019年1月11日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Top
微信扫码咨询专知VIP会员