Training a machine learning model over an encrypted dataset is an existing promising approach to address the privacy-preserving machine learning task, however, it is extremely challenging to efficiently train a deep neural network (DNN) model over encrypted data for two reasons: first, it requires large-scale computation over huge datasets; second, the existing solutions for computation over encrypted data, such as homomorphic encryption, is inefficient. Further, for an enhanced performance of a DNN model, we also need to use huge training datasets composed of data from multiple data sources that may not have pre-established trust relationships among each other. We propose a novel framework, NN-EMD, to train DNN over multiple encrypted datasets collected from multiple sources. Toward this, we propose a set of secure computation protocols using hybrid functional encryption schemes. We evaluate our framework for performance with regards to the training time and model accuracy on the MNIST datasets. Compared to other existing frameworks, our proposed NN-EMD framework can significantly reduce the training time, while providing comparable model accuracy and privacy guarantees as well as supporting multiple data sources. Furthermore, the depth and complexity of neural networks do not affect the training time despite introducing a privacy-preserving NN-EMD setting.


翻译:在加密数据集上进行机器学习模型的培训是解决隐私保存机器学习任务的一个很有希望的现有方法,但是,对深神经网络(DNN)模型进行与加密数据相比的高效培训是极具挑战性的,原因有二:第一,它要求对庞大的数据集进行大规模计算;第二,对加密数据进行计算的现有解决办法,例如同质加密,效率低下。此外,为了提高DNN模型的性能,我们还需要使用由多个数据来源的数据组成的庞大的培训数据集,这些数据可能没有预先建立相互信任关系。我们提议了一个新框架,即NNN-EMD,对从多个来源收集的多套加密数据集进行训练。为此,我们提出一套使用混合功能加密办法的安全计算协议。我们评估我们在MNIST数据集培训时间和模型准确性方面的性能框架。与其他现有框架相比,我们提议的NNN-EMD框架可以大大减少培训时间,同时提供可比的模型准确性和隐私保障,并支持多个数据源。此外,我们提出的NNEM网络的深度和复杂性并不影响内存性网络的深度和复杂性,尽管引入了一种保密性能-D。

0
下载
关闭预览

相关内容

神经网络(Neural Networks)是世界上三个最古老的神经建模学会的档案期刊:国际神经网络学会(INNS)、欧洲神经网络学会(ENNS)和日本神经网络学会(JNNS)。神经网络提供了一个论坛,以发展和培育一个国际社会的学者和实践者感兴趣的所有方面的神经网络和相关方法的计算智能。神经网络欢迎高质量论文的提交,有助于全面的神经网络研究,从行为和大脑建模,学习算法,通过数学和计算分析,系统的工程和技术应用,大量使用神经网络的概念和技术。这一独特而广泛的范围促进了生物和技术研究之间的思想交流,并有助于促进对生物启发的计算智能感兴趣的跨学科社区的发展。因此,神经网络编委会代表的专家领域包括心理学,神经生物学,计算机科学,工程,数学,物理。该杂志发表文章、信件和评论以及给编辑的信件、社论、时事、软件调查和专利信息。文章发表在五个部分之一:认知科学,神经科学,学习系统,数学和计算分析、工程和应用。 官网地址:http://dblp.uni-trier.de/db/journals/nn/
专知会员服务
155+阅读 · 2021年3月6日
区块链白皮书(2020年),60页pdf
专知会员服务
91+阅读 · 2021年1月5日
专知会员服务
118+阅读 · 2020年7月22日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
32+阅读 · 2020年4月15日
简明扼要!Python教程手册,206页pdf
专知会员服务
47+阅读 · 2020年3月24日
机器学习速查手册,135页pdf
专知会员服务
340+阅读 · 2020年3月15日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
5+阅读 · 2019年4月29日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Arxiv
0+阅读 · 2021年6月8日
Arxiv
38+阅读 · 2020年12月2日
VIP会员
相关VIP内容
专知会员服务
155+阅读 · 2021年3月6日
区块链白皮书(2020年),60页pdf
专知会员服务
91+阅读 · 2021年1月5日
专知会员服务
118+阅读 · 2020年7月22日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
32+阅读 · 2020年4月15日
简明扼要!Python教程手册,206页pdf
专知会员服务
47+阅读 · 2020年3月24日
机器学习速查手册,135页pdf
专知会员服务
340+阅读 · 2020年3月15日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
已删除
将门创投
5+阅读 · 2019年4月29日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
Top
微信扫码咨询专知VIP会员