The successful deployment of artificial intelligence (AI) in many domains from healthcare to hiring requires their responsible use, particularly in model explanations and privacy. Explainable artificial intelligence (XAI) provides more information to help users to understand model decisions, yet this additional knowledge exposes additional risks for privacy attacks. Hence, providing explanation harms privacy. We study this risk for image-based model inversion attacks and identified several attack architectures with increasing performance to reconstruct private image data from model explanations. We have developed several multi-modal transposed CNN architectures that achieve significantly higher inversion performance than using the target model prediction only. These XAI-aware inversion models were designed to exploit the spatial knowledge in image explanations. To understand which explanations have higher privacy risk, we analyzed how various explanation types and factors influence inversion performance. In spite of some models not providing explanations, we further demonstrate increased inversion performance even for non-explainable target models by exploiting explanations of surrogate models through attention transfer. This method first inverts an explanation from the target prediction, then reconstructs the target image. These threats highlight the urgent and significant privacy risks of explanations and calls attention for new privacy preservation techniques that balance the dual-requirement for AI explainability and privacy.


翻译:在从保健到雇用等许多领域成功部署人工智能(AI)需要负责任地使用人工智能(AI),特别是在模型解释和隐私方面。可解释人工智能(XAI)提供了更多的信息,帮助用户理解模型决定,但这种额外知识暴露了隐私攻击的更多风险。因此,提供了伤害隐私的解释。我们研究了图像模型反向袭击的这种风险,并确定了几座攻击结构,其性能越来越强,以便从模型解释中重建私人图像数据。我们开发了一些多式移植CNN结构,其反向性能大大高于目标模型预测。这些XAI觉觉反向模型的设计是为了利用图像解释方面的空间知识。为了了解哪些解释具有更高的隐私风险,我们分析了各种解释类型和因素如何影响反向性表现。尽管有些模型没有提供解释,但我们通过关注转移来利用对代名模型的解释,进一步展示了甚至非解释性目标模型的反向性表现。这种方法首先从目标预测中颠倒了解释,然后重建了目标图像。这些威胁突出了紧急和重大的隐私解释风险,并要求注意新的隐私保护技术,从而平衡双重保密。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
30+阅读 · 2021年6月12日
专知会员服务
49+阅读 · 2021年6月2日
专知会员服务
60+阅读 · 2020年3月19日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
Arxiv
0+阅读 · 2021年10月13日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
19+阅读 · 2019年4月5日
VIP会员
Top
微信扫码咨询专知VIP会员