Mutual information $I(X;Y)$ is a useful definition in information theory to estimate how much information the random variable $Y$ holds about the random variable $X$. One way to define the mutual information is by comparing the joint distribution of $X$ and $Y$ with the product of the marginals through the KL-divergence. If the two distributions are close to each other there will be almost no leakage of $X$ from $Y$ since the two variables are close to being independent. In the discrete setting the mutual information has the nice interpretation of how many bits $Y$ reveals about $X$ and if $I(X;Y)=H(X)$ (the Shannon entropy of $X$) then $X$ is completely revealed. However, in the continuous case we do not have the same reasoning. For instance the mutual information can be infinite in the continuous case. This fact enables us to try different metrics or divergences to define the mutual information. In this paper, we are evaluating different metrics or divergences such as Kullback-Liebler (KL) divergence, Wasserstein distance, Jensen-Shannon divergence and total variation distance to form alternatives to the mutual information in the continuous case. We deploy different methods to estimate or bound these metrics and divergences and evaluate their performances.
翻译:相互信息 $I(X;Y) 是信息理论中一个有用的定义,用来估计随机变量美元对随机变量美元持有多少信息,随机变量美元对随机变量美元持有多少信息 。 定义相互信息的一种方法是将美元和美元联合分配额与边际产品通过 KL- divegences 的边际产品进行比较。 如果两个分布相近,则由于两个变量接近于独立,几乎不会从Y美元中泄漏任何X美元。 在离散设置中,相互信息对多少比特美元显示约X美元,如果美元(X;Y)=H(X)美元(X)美元,则可以完全披露。 但是,在连续的情况下,我们没有相同的推理。 例如,由于两个变量接近于两个变量接近于独立,相互信息几乎不会泄漏任何X美元。 这一事实使我们能够尝试不同的衡量尺度或差异来定义相互信息。 在本文中,我们正在对Kullback-Liebler(KL) 显示多少美元(X) 和HH(X) 美元(X) 美元(X) 美元) 美元, 然后完全显示美元) 美元,然后完全显示, 美元(X美元) 美元(X美元) 美元) 和美元(X美元) 美元,然后完全显示美元) 美元,然后完全(X美元) 美元,然后完全显示美元, 美元 美元, 美元 美元, 美元 美元 美元,然后完全 美元 美元 美元 美元 美元 和 和 美元 美元 美元 美元 和 和 等不同的计算, 等不同的计算, 等不同的计算这些差异的差差差差差差差法 等不同的计算。