We demonstrate that differentially private machine learning has not yet reached its "AlexNet moment" on many canonical vision tasks: linear models trained on handcrafted features significantly outperform end-to-end deep neural networks for moderate privacy budgets. To exceed the performance of handcrafted features, we show that private learning requires either much more private data, or access to features learned on public data from a similar domain. Our work introduces simple yet strong baselines for differentially private learning that can inform the evaluation of future progress in this area.


翻译:我们证明,在很多明目张胆的视觉任务上,有区别的私人机器学习还没有达到“亚历克斯网”的“瞬间 ” : 在手工艺特征方面受过培训的线性模型大大超过中度隐私预算的端到端深神经网络。 超出手工艺特征的性能,我们表明私人学习需要更多私人数据,或者需要获得从类似领域获得的公共数据特征。 我们的工作为差异性私人学习引入简单而有力的基线,为评估该领域未来进展提供信息。

0
下载
关闭预览

相关内容

【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
150+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
已删除
将门创投
6+阅读 · 2019年9月3日
Arxiv
0+阅读 · 2021年1月13日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Residual Policy Learning
Arxiv
4+阅读 · 2018年12月15日
VIP会员
相关资讯
已删除
将门创投
6+阅读 · 2019年9月3日
Top
微信扫码咨询专知VIP会员