We study a hypothesis testing problem with a privacy constraint over a noisy channel and derive the performance of optimal tests under the Neyman-Pearson criterion. The fundamental limit of interest is the privacy-utility tradeoff (PUT) between the exponent of the type-II error probability and the leakage of the information source subject to a constant constraint on the type-I error probability. We provide an exact characterization of the asymptotic PUT for any non-vanishing type-I error probability. Our result implies that tolerating a larger type-I error probability cannot improve the PUT. Such a result is known as a strong converse or strong impossibility theorem. To prove the strong converse theorem, we apply the recently proposed technique in (Tyagi and Watanabe, 2020) and further demonstrate its generality. The strong converse theorems for several problems, such as hypothesis testing against independence over a noisy channel (Sreekumar and G\"und\"uz, 2020) and hypothesis testing with communication and privacy constraints (Gilani \emph{et al.}, 2020), are established or recovered as special cases of our result.


翻译:我们研究一个假设测试问题,对噪音频道进行隐私限制,并根据Neyman-Pearson标准进行最佳测试。基本利益限制是二类误差概率的推手与信息来源渗漏之间的隐私效用权衡(PUT),但对于I类误差概率则不断加以限制。我们精确地描述无症状的PUT对于任何非衰败型I误差概率的特征。我们的结果意味着容忍更大类型I误差概率不能改善PUT。这种结果被称为强烈反转或强烈不可能的理论。为了证明强烈反正理论,我们应用了最近提出的技术(Tyagi和Watanabe,2020年),并进一步证明了其普遍性。对于一些问题的强烈对应,例如对噪音频道独立性的假设测试(Sreekumar和G\"und\uz,2020年),以及通信和隐私限制的假设测试(Gilani\emphet al.},2020年),或者作为我们特殊结果的恢复案例。

0
下载
关闭预览

相关内容

Google-EfficientNet v2来了!更快,更小,更强!
专知会员服务
18+阅读 · 2021年4月4日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
经济学中的数据科学:机器学习与深度学习方法
专知会员服务
26+阅读 · 2020年10月19日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
48+阅读 · 2020年7月4日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
BAT机器学习面试1000题(771~775题)
七月在线实验室
3+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
BAT机器学习面试1000题(771~775题)
七月在线实验室
3+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
BAT机器学习面试题1000题(316~320题)
七月在线实验室
14+阅读 · 2018年1月18日
Top
微信扫码咨询专知VIP会员