We propose a new family of regularized R\'enyi divergences parametrized not only by the order $\alpha$ but also by a variational function space. These new objects are defined by taking the infimal convolution of the standard R\'enyi divergence with the integral probability metric (IPM) associated with the chosen function space. We derive a novel dual variational representation that can be used to construct numerically tractable divergence estimators. This representation avoids risk-sensitive terms and therefore exhibits lower variance, making it well-behaved when $\alpha>1$; this addresses a notable weakness of prior approaches. We prove several properties of these new divergences, showing that they interpolate between the classical R\'enyi divergences and IPMs. We also study the $\alpha\to\infty$ limit, which leads to a regularized worst-case-regret and a new variational representation in the classical case. Moreover, we show that the proposed regularized R\'enyi divergences inherit features from IPMs such as the ability to compare distributions that are not absolutely continuous, e.g., empirical measures and distributions with low-dimensional support. We present numerical results on both synthetic and real datasets, showing the utility of these new divergences in both estimation and GAN training applications; in particular, we demonstrate significantly reduced variance and improved training performance.
翻译:我们提出一个新的R\'enyi差异组合, 不仅以美元顺序, 而且还以一个变异功能空间, 将R\'enyi差异与与选定函数空间相关的整体概率度量(IPM)相交。 我们提出一个新的新组合, 包括一个常规的R\'enyi差异, 不仅以美元顺序, 而且还以一个变异功能空间来进行分化。 我们提出一个新的新组合, 新的组合是R\ enyi差异与与与与选定函数空间相关的整体概率度度值(IPM)相交织。 我们得出了一个新的双重差异性代表, 可用于构建可量化的最小差异估计值。 这个表述避免了风险敏感条件, 因而出现更低差异, 使得在 $\ alpha>1 美元时, 这解决了先前方法的显著差异。 我们证明了这些新差异的特性的属性, 表明这些新差异的特性, 表明它们之间的典型R\ eny 差异与IMFI 差异 和 IPS 之间的 差异, 之间的对比能力,, 表明它们之间的当前 和 数字 分布 显示这些 的 和 的 数据分布上 的 的 的 以及 的 的 的 都 显示了 的 的 和 和 的 的 的 的 的 和 的 的 的 的 的 和 的 的 的 的 的 的 的 。