设备上的训练是目前在私人、分布式用户数据上训练机器学习(ML)模型的最常见方法。尽管如此,设备上的训练存在几个缺点:(1)大多数用户设备太小,无法在设备上训练大型模型,(2)设备上的训练对通信和计算资源需求很高,(3)设备上的训练难以调试和部署。为了解决这些问题,我们提出了Private Evolution-Text(PrE-Text),一种生成差分隐私(DP)合成文本数据的方法。首先,我们展示了在多个数据集上,使用PrE-Text合成数据训练的小模型(适合在用户设备上运行的模型)在实际隐私制度下(ϵ = 1.29,ϵ = 7.58)优于在设备上训练的小模型。我们在使用9倍更少的轮次、每轮次6倍更少的客户端计算和每轮次100倍更少的通信的情况下实现了这些结果。其次,在PrE-Text的DP合成数据上微调大型模型提高了大型语言模型(LLM)在相同隐私预算范围内的私人数据上的性能。总而言之,这些结果表明,在DP合成数据上训练可以比在设备上对私人分布式数据进行模型训练更优。

代码可在https://github.com/houcharlie/PrE-Text获得。

成为VIP会员查看完整内容
18

相关内容

【ICML2023】POUF:面向提示的大型预训练模型无监督微调
专知会员服务
38+阅读 · 2023年5月18日
【CVPR2022】以人为中心感知的多模态预训练
专知会员服务
29+阅读 · 2022年3月28日
专知会员服务
11+阅读 · 2021年7月16日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
37+阅读 · 2020年6月22日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
Arxiv
155+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
396+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
137+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
41+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
37+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
15+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员