To enable an ethical and legal use of machine learning algorithms, they must both be fair and protect the privacy of those whose data are being used. However, implementing privacy and fairness constraints might come at the cost of utility (Jayaraman & Evans, 2019; Gong et al., 2020). This paper investigates the privacy-utility-fairness trade-off in neural networks by comparing a Simple (S-NN), a Fair (F-NN), a Differentially Private (DP-NN), and a Differentially Private and Fair Neural Network (DPF-NN) to evaluate differences in performance on metrics for privacy (epsilon, delta), fairness (risk difference), and utility (accuracy). In the scenario with the highest considered privacy guarantees (epsilon = 0.1, delta = 0.00001), the DPF-NN was found to achieve better risk difference than all the other neural networks with only a marginally lower accuracy than the S-NN and DP-NN. This model is considered fair as it achieved a risk difference below the strict (0.05) and lenient (0.1) thresholds. However, while the accuracy of the proposed model improved on previous work from Xu, Yuan and Wu (2019), the risk difference was found to be worse.


翻译:为使机器学习算法在道德和法律上得到使用,它们必须既公平,又能保护数据被使用者的隐私;然而,实施隐私和公平限制可能以公用事业(Jayaraman & Evans, 2019年;Gong等人,2020年)为代价(Jayaraman & Evans, 2019年;Gong等人,2020年);本文件通过比较简单(S-NNN)、公平(F-NNN)、差别私人(DP-NNN)和差别化私人和公平神经网络(DPF-NNN),调查神经网络的隐私-公用事业-公平交易(Py-Pility-公平交易)情况,以比较一个简单的(S-NN)、公平(F-NN)和有区别的私人和公平(DP-NNNN)信息网络(DP-F-NN),以评价隐私(epsilon, delta)标准、公平(风险差异)和实用性(准确性(准确性)标准方面的不同之处,但在考虑隐私保障最高的情况下(epsilon)标准(20)和最低风险(Win19)下,而拟议的模型的准确性差异比前工作更差)。

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
31+阅读 · 2020年4月15日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
LibRec 精选:如何评估交互式推荐系统?
LibRec智能推荐
8+阅读 · 2019年5月5日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
车辆目标检测
数据挖掘入门与实战
30+阅读 · 2018年3月30日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
LibRec 精选:推荐系统9个必备数据集
LibRec智能推荐
6+阅读 · 2018年3月7日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2021年4月7日
Arxiv
0+阅读 · 2021年4月5日
Arxiv
0+阅读 · 2021年4月3日
Arxiv
6+阅读 · 2018年10月3日
VIP会员
相关资讯
LibRec 精选:如何评估交互式推荐系统?
LibRec智能推荐
8+阅读 · 2019年5月5日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
车辆目标检测
数据挖掘入门与实战
30+阅读 · 2018年3月30日
人工智能 | 国际会议截稿信息9条
Call4Papers
4+阅读 · 2018年3月13日
LibRec 精选:推荐系统9个必备数据集
LibRec智能推荐
6+阅读 · 2018年3月7日
神经网络学习率设置
机器学习研究会
4+阅读 · 2018年3月3日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员