While rich medical datasets are hosted in hospitals distributed across countries, concerns on patients' privacy is a barrier against utilizing such data to train deep neural networks (DNNs) for medical diagnostics. We propose Dopamine, a system to train DNNs on distributed medical data, which employs federated learning (FL) with differentially-private stochastic gradient descent (DPSGD), and, in combination with secure multi-party aggregation, can establish a better privacy-utility trade-off than the existing approaches. Results on a diabetic retinopathy (DR) task show that Dopamine provides a privacy guarantee close to the centralized training counterpart, while achieving a better classification accuracy than FL with parallel differential privacy where DPSGD is applied without coordination. Code is available at https://github.com/ipc-lab/private-ml-for-health.


翻译:虽然分布在不同国家的医院拥有丰富的医疗数据集,但对病人隐私的关切是妨碍利用这些数据来培训深入神经网络进行医疗诊断的障碍,我们提议多帕胺,这是在分布的医疗数据方面培训DPANIN的系统,该系统使用有差别-私人随机梯度的联邦学习(FL),结合安全的多党汇总,可以建立比现有方法更好的隐私-通用权衡。糖尿病复方疗法(DR)任务结果显示,多帕胺提供了靠近集中培训对应方的隐私保障,同时实现了比FL更好的分类准确性,同时在没有协调的情况下使用DPSGD的平行差异隐私。《守则》可在https://github.com/ipc-lab/puty-ml-for-health查阅。

0
下载
关闭预览

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
88+阅读 · 2020年12月2日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
46+阅读 · 2020年1月23日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
0+阅读 · 2021年3月19日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员