近年来,机器学习在人工智能中扮演着越来越重要的角色。此外,在网上购物、虚拟个人助理、推荐系统等领域,它正迅速成为我们日常生活的一部分。数据与机器学习算法的结合推动了这些人工智能方法的广泛应用。然而,对所处理的数据存在敏感性和隐私方面的担忧。这在医疗保健和金融等领域尤为突出。保护隐私的机器学习通过对敏感数据的私有计算来缓解这些隐私挑战。然而,这个过程并非微不足道或没有权衡。
在这篇论文中,我们专注于设计有效和高效的协议,以促进端到端隐私保护机器学习,特别是神经网络训练和推理。我们主要关注多方计算和非加密原语,如用于私有计算的联邦学习。我们首先设计了一个高效的双方安全训练和预测框架QUOTIENT。QUOTIENT受益于标准神经网络训练的整体适应,使其成为加密友好的训练过程,同时还提供了用于安全计算的定制混合MPC协议。接下来,我们引入联邦学习来支持对未标记数据进行高度分散的训练。我们激发了“竖井”的想法,以确保优越的隐私和跨子群体的隔离。为了完成技术贡献,我们提出了一个MPC友好的秘密安全承诺方案,以启用认证预测。更具体地说,这有助于在推理时对训练过的模型强制执行非功能约束,如公平性、可解释性和安全性,使过程更公平。我们设计、实现并对所有这些框架进行基准测试,以展示计算、通信和准确性方面的性能提升。我们以一个用户研究来结束论文,该研究聚焦于增强可用性、效率、协助设计和帮助确保在保护隐私的计算框架中的公平性。这项研究采用半结构化访谈的形式,对隐私保护计算生态系统中的各种利益相关者进行访谈。
对于我们的协议,我们在速度上提高了一个数量级以上的技术水平,同时在准确性和通信方面取得了显著的进步。用户研究为纯技术贡献提供了丰富的社会技术视角。本文将理论、实践和评估相结合,作为一个多角度的框架,激励有效、高效和公平的隐私保护机器学习的设计、开发和进一步研究。
牛津大学是一所英国研究型大学,也是罗素大学集团、英国“G5超级精英大学”,欧洲顶尖大学科英布拉集团、欧洲研究型大学联盟的核心成员。牛津大学培养了众多社会名人,包括了27位英国首相、60位诺贝尔奖得主以及数十位世界各国的皇室成员和政治领袖。2016年9月,泰晤士高等教育发布了2016-2017年度世界大学排名,其中牛津大学排名第一。