We study the gradient flow for a relaxed approximation to the Kullback-Leibler (KL) divergence between a moving source and a fixed target distribution. This approximation, termed the KALE (KL approximate lower-bound estimator), solves a regularized version of the Fenchel dual problem defining the KL over a restricted class of functions. When using a Reproducing Kernel Hilbert Space (RKHS) to define the function class, we show that the KALE continuously interpolates between the KL and the Maximum Mean Discrepancy (MMD). Like the MMD and other Integral Probability Metrics, the KALE remains well defined for mutually singular distributions. Nonetheless, the KALE inherits from the limiting KL a greater sensitivity to mismatch in the support of the distributions, compared with the MMD. These two properties make the KALE gradient flow particularly well suited when the target distribution is supported on a low-dimensional manifold. Under an assumption of sufficient smoothness of the trajectories, we show the global convergence of the KALE flow. We propose a particle implementation of the flow given initial samples from the source and the target distribution, which we use to empirically confirm the KALE's properties.


翻译:我们研究梯度流,以轻松接近移动源和固定目标分布之间的 Kullack- Leiber (KL) 移动源和固定目标分布之间的差值。 这个近值, 称为 KALE (KL 近似下下限估计值), 解决了Fenchel 双重问题的常规版本, 定义了功能等级的 KL。 当使用复制的 Kernel Hilbert 空间( RKHS) 来定义函数等级时, 我们显示 KALE 持续在 KLE 和 最大偏差( MMD) 之间进行交叉。 和 MMMD 和其他 综合概率分布模型一样, KALE 仍然被很好地定义为相异分布 。 尽管如此, KALE 相对于 MMD 来说, KLE, KLE 会继承限制 KLE 的对支持分布支持不匹配的敏感度。 这两个属性使得 KALE 梯度流在目标分布在低维方时特别适合。 在假设 KLE 轨迹足够平稳的情况下, 我们展示 KALE 流的全球趋同 。 我们提议从源和目标分布如何验证。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年4月2日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
专知会员服务
61+阅读 · 2020年3月4日
tf.GradientTape 详解
TensorFlow
120+阅读 · 2020年2月21日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
Arxiv
0+阅读 · 2021年12月30日
Arxiv
0+阅读 · 2021年12月29日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
tf.GradientTape 详解
TensorFlow
120+阅读 · 2020年2月21日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
Top
微信扫码咨询专知VIP会员