We consider a problem of guessing, wherein an adversary is interested in knowing the value of the realization of a discrete random variable $X$ on observing another correlated random variable $Y$. The adversary can make multiple (say, $k$) guesses. The adversary's guessing strategy is assumed to minimize $\alpha$-loss, a class of tunable loss functions parameterized by $\alpha$. It has been shown before that this loss function captures well known loss functions including the exponential loss ($\alpha=1/2$), the log-loss ($\alpha=1$) and the $0$-$1$ loss ($\alpha=\infty$). We completely characterize the optimal adversarial strategy and the resulting expected $\alpha$-loss, thereby recovering known results for $\alpha=\infty$. We define an information leakage measure from the $k$-guesses setup and derive a condition under which the leakage is unchanged from a single guess.


翻译:我们考虑了一个猜测问题, 即对手在观察另一个相关的随机变量Y$时有兴趣知道实现一个离散随机变量X$的价值。 对手可以作出多重猜想( 例如, $k$ )。 对手的猜想策略假定是将损失最小化, 一种以$ alpha$为参数的可金枪鱼损失功能类别。 之前已经显示, 此损失函数包含众所周知的损失函数, 包括指数损失( $\ alpha=1/2美元)、 日志损失( $\pha=1美元) 和 美元-1美元损失( $\ alpha_ inty$ ) 。 我们完全确定了最佳的对抗策略和预期的 $\ alpha$ 损失, 从而恢复了已知的 $\ alpha_ inty$ 。 我们定义了从 $ gues 设置的信息泄漏量, 并得出一个条件, 即渗漏不会从一个猜测中改变 。

0
下载
关闭预览

相关内容

损失函数,在AI中亦称呼距离函数,度量函数。此处的距离代表的是抽象性的,代表真实数据与预测数据之间的误差。损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。
专知会员服务
50+阅读 · 2021年8月8日
专知会员服务
25+阅读 · 2021年4月2日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
91+阅读 · 2019年10月16日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
11+阅读 · 2018年3月23日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
vae 相关论文 表示学习 2
CreateAMind
6+阅读 · 2018年9月9日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员