隐私和机器学习:两个意想不到的盟友?一文了解差分隐私

2018 年 5 月 14 日 专知
隐私和机器学习:两个意想不到的盟友?一文了解差分隐私

【导读】在机器学习的许多应用中,如用于医疗诊断的机器学习,我们希望机器学习算法不记忆有关训练集的敏感信息,例如个别患者的特定病史。差分隐私(Differential privacy)是一个算法提供的度量隐私保障的框架。通过差分隐私的角度,我们可以设计出机器学习算法,对私有数据进行负责任的模型训练。作者(与Martín Abadi、lfar Erlingsson、Ilya Mironov、Ananth Raghunathan、Shuang Song和Kunal Talwar)关于机器学习的差分化隐私的工作使机器学习研究人员很容易为隐私研究做出贡献,这篇文章将向你展示如何做到这一点。


作者 | Nicolas Papernot、Ian Goodfellow

编译 | 专知

参与 | Xiaowen


Privacy and machine learning: two unexpected allies?


差分隐私的关键是一个称为PATE(Private Aggregation of Teacher Ensembles)的算法家族。PATE框架的一个伟大之处,除了它的名字,在于任何知道如何训练一个有监督的ML模型(如神经网络),都可以为机器学习的差分化隐私研究作出贡献。PATE框架通过仔细协调几个不同ML模型的活动来实现隐私学习。只要你遵循PATE框架指定的过程,整个结果模型将有可测量的隐私保证。每个独立的ML模型都使用普通的监督学习技术进行训练,我们的许多读者可能从ImageNet分类或许多其他更传统的ML追求中熟悉这些技术。

 

如果有人能够为Pate使用的任何单个模型设计更好的体系结构或更好的训练算法,那么他们也可以改进监督学习本身(即非隐私分类)。事实上,差分隐私可以被认为是一个规范者,能够解决从业人员经常遇到的一些问题——即使在不需要隐私的情况下也是如此,包括过拟合。我们在这篇文章中详细阐述了隐私和学习之间的这些愉快的协同作用。特别是,我们介绍了PATE最近的一个扩展,提高了PATE框架所产生的模型的准确性和保密性。这表明,差分隐私的目标是学习模型良好的推广性能。

 

为什么我们需要隐私机器学习算法?




机器学习算法是通过研究大量数据并更新其参数来编码数据中的关系来工作的。理想情况下,我们希望这些机器学习模型的参数编码一般模式(“吸烟患者更容易患心脏病”),而不是关于特定训练实例的事实(“Jane Smith患有心脏病”)。不幸的是,机器学习算法不学习默认忽略这些细节。如果我们想用机器学习来解决一个重要的任务,比如制作一个癌症诊断模型,那么当我们发布机器学习模型(例如,通过为全世界的医生开一个开源的癌症诊断模型)时,我们也可能无意中泄露有关训练集的信息。恶意攻击者可以检查已发布的模型并了解Jane Smith的私有信息。这就是差分隐私的来源。

 

我们如何定义和保证隐私?




科学家们已经提出了许多在分析数据时保护隐私的方法。例如,在对数据进行分析之前匿名化是很流行的做法,方法是删除私有信息或用随机值替换它们。通常匿名的细节的常见例子包括电话号码和邮政编码。然而,匿名数据并不总是足够的,它提供的隐私随着对手获取数据集中所表示的个人的辅助信息而迅速降低。著名的是,这一策略使研究人员能够将电影评分数据的一部分匿名化,该数据集发布给了Netflix奖的参与者,当时这些人还在互联网电影数据库(IMDb)上公开分享了他们的电影评分。如果Jane Smith在Netflix奖数据集中并在IMDb上将相同的评分分配给电影A、B和C,那么研究人员就可以将与Jane对应的数据跨两个数据集联系起来。这反过来又会让他们恢复Netflix奖的收视率,而不是IMDb。这个例子说明了定义和保证隐私是多么困难,因为很难估计对手可以获得的关于个人的知识的范围。


差分隐私是一种框架,用于评估旨在保护隐私的机制所提供的保障。它由Cynthia Dwork、Frank McSherry、Kobbi Nissim和Adam Smith发明,解决了以往方法的许多局限性,如k-匿名。其基本思想是将机制的部分行为随机化,以提供隐私。在我们的例子中,考虑的机制总是一种学习算法,但是差分隐私框架可以应用于任何算法的研究。


将随机性引入学习算法很难区分由学习参数定义的模型的哪些行为方面来自随机性,哪些来自训练数据。如果没有随机性,我们就可以问这样的问题:“当我们在这个特定的数据集上训练它时,学习算法会选择哪些参数?”考虑到学习算法中的随机性,我们反而会问这样的问题:“当我们在这个特定的数据集上对它进行训练时,学习算法在这组可能的参数中选择参数的概率是多少?”


我们使用差分隐私的一个版本,它要求如果我们改变训练集中的单个训练示例,学习任何一组参数的概率大致相同。这意味着添加训练示例、删除训练示例或更改一个训练示例中的值。直觉是,如果一个病人(Jane Smith)不影响学习的结果,那么病人的记录就不能被记住,她的隐私也会受到尊重。在这篇文章的其余部分,我们经常把这个概率称为隐私预算(privacy budget)。较小的隐私预算与更强的隐私保障相对应。

在上面的例子中,当对手不能根据三个用户中的两个用户的数据从基于所有三个用户的数据的相同算法返回的答案中区分随机算法产生的答案时,我们实现了差分隐私。

 

PATE背后的直觉是什么?




我们为机器学习提供差分隐私的PATE方法【1】是基于一种简单的直觉:如果两个不同的分类器在两个不同的数据集上训练,没有共同的训练示例,那么这个决定就不会显示任何单个训练示例的信息。无论是否有任何单一的训练实例,都可以作出决定,因为使用该示例训练的模型和没有该示例训练的模型都得出了相同的结论。


假设我们有两个模型在单独的数据上训练,我们不能单独发布每个模型的类输出,因为每个模型所预测的类可能泄漏其训练数据中包含的一些私有信息。例如,假设Jane Smith仅贡献两个模型中的一个的训练数据。如果该模型预测患者的记录与Jane的癌症非常相似,而另一个模型预测相反,则揭示了Jane的私人信息。这个简单的例子说明了为什么对算法添加随机性是保证它提供任何有意义的隐私保证的必要条件。

 

PATE是如何工作的?




现在让我们逐步了解PATE框架如何以此观察为基础,从隐私数据中负责任地学习。 在PATE中,我们首先将隐私数据集划分为数据子集。这些子集是分区,因此任何一对分区中包含的数据之间不会有重叠。如果Jane Smith的记录位于我们的隐私数据集中,那么它只包含在其中一个分区中。我们在每个分区上训练一个称为teacher的ML模型。teacher如何接受训练没有任何限制。这实际上是PATE的主要优点之一:对于用于创建teacher模型的学习算法是不可知的。所有的teachers都解决了相同的机器学习任务,但他们都是独立进行的。也就是说,只有一位teacher在训练期间分析了Jane Smith的记录。下面是这个框架的一部分的例子。


我们现在拥有一套独立训练的teacher模型,但没有任何隐私保障。我们如何使用此系综来做出尊重隐私的预测?在PATE中,我们添加了噪声,同时聚集了由每个teacher所做的预测,以形成单一的共同预测。我们统计出对每个类别投票的teacher的数量,然后通过添加从拉普拉斯或高斯分布采样的随机噪声来扰动该计数。熟悉差分隐私文献的读者将认识到噪声最大化机制。当两个输出类从teacher接收到相等(或准相等)的投票时,噪声将确保具有最多票数的类将是随机选择的这两类中的一个。另一方面,如果大多数teacher都认为是同一个类别,将噪音添加到投票计数不会改变这类获得最多票数的事实。这种微妙的协调提供了有噪声的聚集机制所做的预测的正确性和隐私,只要teacher之间的共识足够高。


下图描述了聚合机制是teacher共识较高的一种设置:在投票计数中添加随机噪声不会改变候选人标签。


为了清晰起见,我们用二进制医学诊断任务演示了聚合,但是机制扩展到了大量的类【2】。现在让我们分析一下这种机制的结果,如果Jane Smith患上癌症,红色模型是唯一在包含Jane Smith数据的分区上接受训练的老teacher,它现在已经了解到,与Jane相似的记录是癌症患者的特征,因此,它对测试输入的预测(Jane的预测类似)改为“癌症”。现在有两名teacher投票赞成“癌症”这个标签,而剩下的两名teacher则投票赞成“健康”。在这些情况下,两个投票计数中添加的随机噪声会阻止聚合结果反映任何teacher为保护隐私而进行的投票:噪音聚合的结果同样可能是“健康”或“癌症”。


在这一点上,PATE提供了可以被认为是一种差分隐私的API:由嘈杂聚合机制预测的每个标签都有严格的差分隐私保证,将隐私预算绑定到标记该输入的开销。在我们运行的例子中,我们可以确定标签预测的概率受我们训练的teacher的任何个人记录的影响,例如Jane Smith。我们应用两种技术中的一种称为Moments Accountant和Renyi 差分隐私来计算这个界限。使用每个查询的投票直方图,我们估计作为噪声注入结果的聚合结果的改变的概率。然后,我们将这些信息聚集在所有查询上。在实践中,隐私预算主要取决于teacher之间的一致性以及增加了多少噪声。teacher之间的共识越高,分配给某一类的票数越多,倾向于更小的隐私预算。到某一点,在计算teacher指派的选票之前,添加更大的噪音也会产生更小的隐私预算。回想一下,较小的隐私预算对应于更强的隐私保障。


然而,该框架目前面临两个限制。首先,聚合机制所做的每个预测都会增加总的隐私预算。这意味着,当预测到许多标签时,总隐私预算最终会变得太大——此时,提供的隐私保障变得毫无意义。因此,API必须对所有用户设置最大数量的查询,并获得一组新的数据,以便在达到上限时学习新的teacher集合。第二,我们不能公开公布teacher模型的集合。否则的话,对手可以检查公布的teacher的内部参数,了解他们训练的隐私数据。出于这两个原因,PATE中有一个附加步骤:创建一个student模型。


student通过以保护隐私的方式传输teacher集合获得的知识来进行训练。当然,噪声聚集机制是实现这一目标的关键工具。student从一组未标记的公共数据中选择输入,并将这些输入提交给teacher集合以进行标记。噪声聚合机制以隐私标签响应,student使用这些标签来训练模型。在我们的工作中,我们试验了两个变体:PATE只根据有标记的输入(有监督的方式)训练student,而Pate-G则用标记和未标记的输入来训练student(半监督的方式使用生成对抗网络(Generative Adversarial Networks)或虚拟对抗训练(Virtual Adversarial Training))。 

student模型是PATE的最终产品。它的部署是为了响应来自最终用户的任何预测查询。此时,隐私数据和teacher模型可以被安全地丢弃:student是唯一用于推理的模型。请观察上述两个陷阱现在是如何解决的。首先,一旦student完成训练,整个隐私预算就被固定为一个不变的值。第二,能够访问student内部参数的对手在最坏的情况下只能收回student训练过的标签,而这些标签是隐私的。这种保证来自于噪声聚集机制。

 

PATE在隐私和学习之间的愉快协同作用




你可能已经注意到,隐私保障和聚合机制预测的标签的正确性源于teacher之间的强烈共识。事实上,当大多数teacher同意一个预测时,增加噪音不太可能改变获得最多选票的类别。这将为聚合机制带来很强的隐私保障。类似地,许多teacher同意使用标签表示对该预测的正确性有信心,因为这些teacher模型是独立于不同的数据分区进行训练的。这就是为什么PATE能够在隐私和学习之间进行愉快的协同作用。


事实上,将差分隐私作为一种很好的性质呈现是很常见的,但它会带来性能上的必要折衷。然而,机器学习是不同的,实际上,差分化隐私与机器学习的目标是一致的。例如,在学习过程中记住一个特定的训练点——比如Jane Smith的病历——是对隐私的侵犯。这也是一种过拟合的形式,损害了该模型对病历与Jane的相似的患者的推广性能。此外,不同的隐私意味着某种形式的稳定性(但事实并非如此)。


这一观察促使我们在最近的论文中为PATE设计了一种改进的聚合机制,该机制是对原始工作的后续工作。这种新机制是有选择性的:teacher只回答student提出的一些问题。当teacher提出问题时,我们首先检查teacher之间的共识是否足够高。如果分配给teacher最受欢迎的标签的票数大于阈值,我们接受student的查询。如果没有,我们就拒绝它。阈值本身是随机的,以便在此选择过程中提供隐私保护。一旦选择了查询,我们就继续使用原始的噪声聚合机制:向每个标签对应的每个投票计数中添加噪声,并以最多的票数返回标签。下面说明了这个过程。

实际上,这意味着我们的隐私预算现在花在两件事上:选择和回答查询。然而,由于我们选择回答的问题的特点是teacher之间的高度共识,所以回答这些问题所需的预算非常少。换句话说,我们可以认为该聚合器是一种机制,它过滤掉了在原始机制中消耗我们大部分隐私预算的查询。因此,在相同的student表现水平上,该聚合器提供的总隐私预算比原来的噪声聚合机制要小。下图将这种改进可视化为由原始机制(简单GNMAX)和精化机制(Confident GNMAX)回答的(student)查询数的函数,当我们使用数据依赖(data-dep)分析时,这是通过应用Moments Accountant和Renyi差分隐私来实现的。

 

ML研究人员如何为Pate建立改进的模型?




有两个因素主要影响我们的方法所提供的隐私保障的力度:

1. teacher之间的共识:当这一共识很强时,意味着几乎所有teacher都会做出相同的标签预测,当输出相应的标签时,隐私预算就会减少。这在直觉上对应于这样一种情景,即所做的预测是所有teacher学习的一种概括性,即使他们是在不相交的数据集上接受训练的。


2. student询问次数:每次student在训练期间向teacher查询标签时,teacher用于制作该标签的预算将被添加到总隐私成本中。因此,以尽可能少的teacher提问来训练student,加强了提供的隐私保障。


这两点都可以从纯ML的角度来解决。要加强teacher共识,就需要一个人可以用很少的数据来训练许多teacher。提高这些模型的个别准确性和泛化很可能有助于提高共识。与全监督的teacher训练不同,减少student查询的数量是一个半监督的学习问题。例如,在MNIST和SVHN上,最先进的隐私保护模型都是使用PATE-G进行训练的,PATE-G是该框架的一个变体,它使用生成的对抗性网络以一种半监督的方式对student进行训练。student可以获得一组相对较大的未标注输入,它必须在尽可能少的teacher监督下学习。


为了促进这些努力,PATE框架是开源的,可以作为TensorFlow模型仓库[3]的一部分使用。为了保持简单,代码使用了公开可用的图像分类数据集,如MNIST和SVHN。你可以克隆它并在UNIX机器上适当地设置PYTHONPATH变量,如下所示:

cd
git clone https://github.com/tensorflow/models
cd models
export PYTHONPATH=$(pwd):$PYTHONPATH
cd research/differential_privacy/multiple_teachers

Pate的第一步就是训练teacher模型。在这个演示中,我们使用MNIST数据集和一个由250名teacher组成的集合(请参阅Pate论文来讨论为什么这是一个很好的选择)。

python train_teachers.py --nb_teachers=250 --teacher_id=0 --dataset=mnist
python train_teachers.py --nb_teachers=250 --teacher_id=1 --dataset=mnist
...
python train_teachers.py --nb_teachers=250 --teacher_id=248 --dataset=mnist
python train_teachers.py --nb_teachers=250 --teacher_id=249 --dataset=mnist

现在,我们可以加载这些teacher,并应用聚合机制来监督student训练。

python train_student.py --nb_teachers=250 --dataset=mnist 
--stdnt_share=1000 --lap_scale=20 --save_labels=True

这将训练student使用我们的250名teacher标记的测试集的前1000输入和一个引入拉普拉斯1/20级噪声的聚合机制。将保存一个文件/tmp/mnist_250_student_clean_votes_lap_20.npy 包含teacher制作的所有标签,我们用来评价student的隐私。


要了解我们的student模型所保证的差分隐私界限的值,我们需要运行分析脚本。这将执行隐私分析,使用有关teacher共识的信息,在训练student时保存。在这里,noise_eps参数应该设置为2/lap_scale。

python analysis.py 
--counts_file=/tmp/mnist_250_student_clean_votes_lap_20.npy
--max_examples=1000 --delta=1e-5 --noise_eps=0.1 --input_is_counts

此设置使用原始的噪声聚合机制复制PATE框架。有兴趣使用我们在最近的文章中介绍的Confident聚集器机制的读者可以在这里[4]找到相关的代码。


更多PATE资源



 

  • 发表在ICLR2017原始PATE论文[5]以及ICLR oral的记录[6]

  • ICLR2018 论文[7],PATE扩展到大量类别和不平衡数据

  • PATE代码[8]

  • PATE精细隐私分析代码[9]

 

结论




在机器学习的背景下,隐私可以被看作是盟友而不是敌人。随着技术的改进,差分隐私很可能成为一个有效的规则者,产生更好的行为模型。在PATE框架内,机器学习研究人员也可以在改进差分隐私保障方面做出重大贡献。

 

参考链接:




【1】https://arxiv.org/abs/1610.05755

【2】https://arxiv.org/abs/1802.08908

【3】https://github.com/tensorflow/models/tree/master/research/differential_privacy/multiple_teachers

【4】https://github.com/tensorflow/models/tree/master/research/differential_privacy/pate

【5】https://arxiv.org/abs/1610.05755

【6】https://www.youtube.com/watch?v=bDayquwDgjU

【7】https://arxiv.org/abs/1802.08908

【8】https://github.com/tensorflow/models/tree/master/research/differential_privacy/multiple_teachers

【9】https://github.com/tensorflow/models/tree/master/research/differential_privacy/pate


链接:

http://www.cleverhans.io/privacy/2018/04/29/privacy-and-machine-learning.html


更多教程资料请访问:专知AI会员计划

-END-

专 · 知

人工智能领域主题知识资料查看与加入专知人工智能服务群

【专知AI服务计划】专知AI知识技术服务会员群加入人工智能领域26个主题知识资料全集获取

[点击上面图片加入会员]

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料

请加专知小助手微信(扫一扫如下二维码添加),加入专知主题群(请备注主题类型:AI、NLP、CV、 KG等)交流~

关注专知公众号,获取人工智能的专业知识!

点击“阅读原文”,使用专知

登录查看更多
12

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

题目: An Overview of Privacy in Machine Learning

序言: 在过去几年中,谷歌、微软和亚马逊等供应商已经开始为客户提供软件接口,使他们能够轻松地将机器学习任务嵌入到他们的应用程序中。总的来说,机构现在可以使用机器学习作为服务(MLaaS)引擎来外包复杂的任务,例如训练分类器、执行预测、聚类等等。他们还可以让其他人根据他们的数据查询模型。当然,这种方法也可以在其他情况下使用(并且经常提倡使用),包括政府协作、公民科学项目和企业对企业的伙伴关系。然而,如果恶意用户能够恢复用于训练这些模型的数据,那么由此导致的信息泄漏将会产生严重的问题。同样,如果模型的内部参数被认为是专有信息,那么对模型的访问不应该允许对手了解这些参数。在本文中,我们对这一领域的隐私挑战进行了回顾,系统回顾了相关的研究文献,并探讨了可能的对策。具体地说,我们提供了大量关于机器学习和隐私相关概念的背景信息。然后,我们讨论了可能的对抗模型和设置,涵盖了与隐私和/或敏感信息泄漏有关的广泛攻击,并回顾了最近试图防御此类攻击的结果。最后,我们总结出一系列需要更多工作的开放问题,包括需要更好的评估、更有针对性的防御,以及研究与政策和数据保护工作的关系。

成为VIP会员查看完整内容
0
39

题目: 机器学习的隐私保护研究综述

简介:

大规模数据收集大幅提升了机器学习算法的性能,实现了经济效益和社会效益的共赢,但也令个人隐私保护面临更大的风险与挑战.机器学习的训练模式主要分为集中学习和联邦学习2类,前者在模型训练前需统一收集各方数据,尽管易于部署,却存在极大数据隐私与安全隐患;后者实现了将各方数据保留在本地的同时进行模型训练,但该方式目前正处于研究的起步阶段,无论在技术还是部署中仍面临诸多问题与挑战.现有的隐私保护技术研究大致分为2条主线,即以同态加密和安全多方计算为代表的加密方法和以差分隐私为代表的扰动方法,二者各有利弊.为综述当前机器学习的隐私问题,并对现有隐私保护研究工作进行梳理和总结,首先分别针对传统机器学习和深度学习2类情况,探讨集中学习下差分隐私保护的算法设计;之后概述联邦学习中存的隐私问题及保护方法;最后总结目前隐私保护中面临的主要挑战,并着重指出隐私保护与模型可解释性研究、数据透明之间的问题与联系.

成为VIP会员查看完整内容
机器学习的隐私保护研究综述.pdf
0
77

题目: Survey of Personalization Techniques for Federated Learning

简介:

联邦学习使机器学习模型可以从分散的数据中学习,而不会损害隐私。 联邦学习的标准制定为所有客户提供了一种共享模型。 由于跨设备的非IID数据分布造成的统计异质性通常导致以下情况:对于某些客户,仅对自己的私有数据进行训练的局部模型的性能要优于全局共享模型,从而丧失了参与该过程的动力。 已经提出了几种技术来个性化全局模型,以更好地为单个客户服务。 本文强调了个性化的必要性,并对有关该主题的最新研究进行了调查。

目录:

成为VIP会员查看完整内容
0
48

这个月初,机器学习顶会 ICML 结束了 2020 年的论文投稿,作为最“硬核”的机器学习会议之一,由于 ICML 并没有硬性限制投稿论文在 ArXiv 上的发表,所以部分投稿文章也提前地放到了 ArXiv 上。专知借此机会推荐几篇放到 ArXiv 上的 ICML 投稿文章,一窥 ICML2020中的 重要的几篇论文究竟在研究什么?这些论文来自牛津大学、上海交大、阿里巴巴、Facebook、伯克利、MIT、剑桥、微软等,涵盖了最新的热门话题:自监督学习、强化学习、图学习、持续终身学习、联邦学习、数据隐私问题等

1、联邦学习,Distributed Non-Convex Optimization with Sublinear Speedup under Intermittent Client Availability(分布式非凸优化与次线性加速下的间歇客户端可用性)

上海交通大学,University of Texas at Dallas,阿里巴巴

作者:Yikai Yan, Chaoyue Niu, Yucheng Ding, Zhenzhe Zheng, Fan Wu, Guihai Chen, Shaojie Tang, Zhihua Wu

摘要:联邦学习是一种新的分布式机器学习框架,在这个框架中,一群异构的客户机协作地训练一个模型,而不共享训练数据。在这项工作中,我们考虑了联邦学习中一个实际且普遍存在的问题:间歇性客户端可用性,其中合格的客户端集可能在训练过程中发生更改。这种间歇性的客户端可用性模型会严重影响经典的联邦平均算法(简称FedAvg)的性能。我们提出了一个简单的分布式非凸优化算法,称为联邦最新平均(简称FedLaAvg),它利用所有客户端的最新梯度,即使客户端不可用,在每次迭代中共同更新全局模型。我们的理论分析表明,FedLaAvg达到了$O(1/(N^{1/4} T^{1/2}))$的收敛速度,实现了相对于客户总数的次线性加速。我们使用CIFAR-10数据集实现和评估FedLaAvg。评价结果表明,FedLaAvg确实达到了次线性加速,测试精度比FedAvg提高了4.23%。

地址:

https://www.zhuanzhi.ai/paper/409e21c47c63f1847126af70ad874ba8

2、自监督学习,Improving Molecular Design by Stochastic Iterative Target Augmentation(通过随机迭代目标增强改进分子设计)

UC Berkeley ,MIT ,剑桥 University of Cambridge

作者:Kevin Yang, Wengong Jin, Kyle Swanson, Regina Barzilay, Tommi Jaakkola

摘要:在分子设计中,生成模型往往是参数丰富的、需要大量数据的神经模型,因为它们必须创建复杂的结构化对象作为输出。由于缺乏足够的训练数据,从数据中估计这些模型可能具有挑战性。在这篇论文中,我们提出了一种非常有效的自我训练方法来迭代创造额外的分子目标。我们首先用一个简单的属性预测器对生成模型进行预训练。然后使用属性预测器作为似然模型,从生成模型中筛选候选结构。在随机EM迭代过程中,迭代生成和使用目标,以最大限度地提高候选结构被接受的对数似然性。一个简单的拒绝(重权)采样器就足以获得后验样本,因为生成模型在预训练后已经是合理的。我们证明了在无条件和条件分子设计的强基线上有显著的进展。特别是,我们的方法在条件分子设计方面比以前的最先进技术的绝对增益高出10%以上。

地址:

https://arxiv.org/abs/2002.04720

3、图神经网络,Graph Prolongation Convolutional Networks: Explicitly Multiscale Machine Learning on Graphs, with Applications to Modeling of Biological Systems(图延长卷积网络:在图上显式多尺度机器学习,用于生物系统建模)

University of California Irvine, Irvine, California, USA.

作者:C.B. Scott, Eric Mjolsness

摘要:我们定义了一种新型的集成图卷积网络模型。该集成模型利用优化后的线性投影算子在图的空间尺度之间进行映射,学习对各个尺度的信息进行聚合,从而进行最终的预测。我们计算这些线性投影算子作为一个目标函数的infima,该目标函数与每个GCN使用的结构矩阵相关。利用这些投影,我们的模型(图扩展卷积网络)在微管弯曲粗粒机械化学模拟中预测单体亚单元的势能方面优于其他GCN整体模型。我们通过测量训练每个模型所花费的时间以及壁钟时间来演示这些性能改进。因为我们的模型在多个尺度上学习,所以有可能在每个尺度上按照预定的粗细训练时间表进行训练。我们研究了几个从代数多重网格(AMG)文献改编的这样的调度,并量化了每个调度的计算收益。最后,我们证明了在一定的假设下,我们的图延拓层可以分解成更小的GCN操作的矩阵外积。

地址:

https://arxiv.org/abs/2002.05842

4、强化学习,Reinforcement Learning Enhanced Quantum-inspired Algorithm for Combinatorial Optimization(强化学习增强的量子启发组合优化算法)

Russian Quantum Center, Moscow, University of Oxford

作者:Dmitrii Beloborodov A. E. Ulanov Jakob N. Foerster Shimon Whiteson A. I. Lvovsky

摘要:量子硬件和量子启发算法在组合优化中越来越受欢迎。然而,这些算法可能需要对每个问题实例进行仔细的超参数调优。我们使用一个强化学习代理与一个量子启发算法来解决能量最小化问题,这相当于最大割问题。代理通过调整其中一个参数来控制算法,其目标是改进最近看到的解决方案。我们提出了一个新的重新排序的奖励(R3)方法,使稳定的单机版本的自我游戏训练,帮助代理人逃脱局部最优。对任意问题实例的训练都可以通过应用对随机生成问题训练的agent的转移学习来加速。我们的方法允许采样高质量的解决方案,以高概率,并优于基线启发和一个黑匣子超参数优化方法。

地址:

https://www.zhuanzhi.ai/paper/fb7eef4291247609ac9407e3211cbe1d

5、语言模型,Aligning the Pretraining and Finetuning Objectives of Language Models(对齐语言模型的预训练和微调目标)

微软

作者:Nuo Wang Pierse, Jingwen Lu

摘要:我们证明了在语言模型训练中明确地将训练前的目标与finetuning目标相一致可以显著地提高finetuning任务的性能,并减少所需的finetuning示例的最少数量。从目标对齐中获得的性能裕度允许我们为可用训练数据较少的任务构建更小尺寸的语言模型。我们通过将目标对齐应用于兴趣概念标签和缩略词检测任务,为这些主张提供了经验证据。我们发现,在目标对齐的情况下,我们的768×3和512×3 transformer语言模型在每个任务中仅使用200个finetuning示例进行概念标记和缩略词检测的准确率分别为83.9%/82.5%和73.8%/70.2%,比未经目标对齐预处理的768×3模型的准确率高了+4.8%/+3.4%和+9.9%/+6.3%。我们在数百个训练示例或更少的“少量示例学习”中命名finetuning小语言模型。在实践中,由目标对齐所支持的示例学习很少,这不仅节省了人工标记的成本,而且使在更实时的应用程序中利用语言模型成为可能。

地址:

https://arxiv.org/abs/2002.02000

6、终身学习,Lipschitz Lifelong Reinforcement Learning(Lipschitz终生强化学习)

ISAE-SUPAERO, Universite de Toulouse, France

作者:Erwan Lecarpentier, David Abel, Kavosh Asadi, Yuu Jinnai, Emmanuel Rachelson, Michael L. Littman

摘要:我们研究了agent面临一系列强化学习任务时的知识迁移问题。我们在马尔可夫决策过程之间引入了一个新的度量,并证明了封闭的MDPs具有封闭的最优值函数。形式上,最优值函数是关于任务空间的Lipschitz连续函数。这些理论结果为我们提供了一种终身RL的值转移方法,我们用它来建立一个具有改进收敛速度的PAC-MDP算法。我们在终身RL实验中证明了该方法的优越性。

地址:

https://arxiv.org/abs/2001.05411

7、图学习,Deep Coordination Graphs(深度协调图)

University of Oxford

作者:Wendelin Böhmer, Vitaly Kurin, Shimon Whiteson

摘要:我们介绍了多智能体协同强化学习的深度协调图。DCG根据协调图将所有agent的联合价值函数分解为agent对之间的支付,从而在表征能力和泛化之间进行灵活的权衡。通过在图上传递局部消息,可以最大限度地实现该值的最大化,这使得使用Q-learning对值函数进行端到端的训练成为可能。使用深度神经网络对报酬函数进行近似,利用参数共享和低秩近似显著提高样本效率。我们证明了DCG可以解决捕食者-被捕食者的任务,这些任务突出了相对泛化的病态,同时也挑战了星际争霸2的微观管理任务。

地址:

https://arxiv.org/abs/1910.00091

8、数据隐私权,Certified Data Removal from Machine Learning Models(从机器学习模型中移除经过认证的数据)

Cornell University, New York, USA Facebook AI Research

作者:Chuan Guo, Tom Goldstein, Awni Hannun, Laurens van der Maaten

摘要:良好的数据管理需要根据数据所有者的要求删除数据。这就提出了这样一个问题:一个隐式地存储有关其训练数据的信息的训练过的机器学习模型是否应该以及如何受到这种删除请求的影响。有可能从机器学习模型中“删除”数据吗?我们通过定义认证删除来研究这个问题:一个非常有力的理论保证,从其中删除数据的模型不能与从一开始就没有观察到数据的模型区分开来。建立了线性分类器的认证去除机制,并对学习环境进行了实证研究。

地址:

https://arxiv.org/abs/1911.03030

成为VIP会员查看完整内容
0
61

简介

近年来,由于机器学习(ML)/深度学习(DL)技术使用多维医学图像,在从一维心脏信号的心脏骤停的预测到计算机辅助诊断(CADx)的各种医疗保健应用中的卓越性能,见证了机器学习(ML)/深度学习(DL)技术的广泛采用。尽管ML / DL的性能令人印象深刻,但对于ML / DL在医疗机构中的健壮性仍然存有疑虑(由于涉及众多安全性和隐私问题,传统上认为ML / DL的挑战性很大),尤其是鉴于最近的研究结果表明ML / DL容易受到对抗性攻击。在本文中,我们概述了医疗保健中各个应用领域,这些领域从安全性和隐私性的角度利用了这些技术,并提出了相关的挑战。此外,我们提出了潜在的方法来确保医疗保健应用程序的安全和隐私保护机器学习。最后,我们提供了有关当前研究挑战的见解以及未来研究的有希望的方向。

内容大纲

成为VIP会员查看完整内容
0
32
小贴士
相关资讯
联邦学习最新研究趋势!
AI科技评论
30+阅读 · 2020年3月12日
破解数据孤岛壁垒,三篇论文详细解读联邦学习
AI科技评论
17+阅读 · 2019年5月7日
基于差分隐私的地理社交网络发布
FCS
8+阅读 · 2019年2月22日
差分隐私保护:从入门到脱坑
FreeBuf
10+阅读 · 2018年9月10日
关于机器学习你要了解的 5 件事
机器学习算法与Python学习
4+阅读 · 2018年9月7日
机器学习者必知的 5 种深度学习框架
深度学习世界
6+阅读 · 2018年5月3日
该如何对「半监督学习算法」实际性应用进行评估?
炼数成金订阅号
5+阅读 · 2018年4月27日
为什么『无监督集成学习』乏人问津?
AI研习社
7+阅读 · 2017年10月24日
相关VIP内容
【中国人民大学】机器学习的隐私保护研究综述
专知会员服务
77+阅读 · 2020年3月25日
专知会员服务
32+阅读 · 2020年1月25日
【上海交大】半监督学习理论及其研究进展概述
专知会员服务
42+阅读 · 2019年10月18日
相关论文
Yongqin Xian,Saurabh Sharma,Bernt Schiele,Zeynep Akata
11+阅读 · 2019年3月25日
Maria Perez-Ortiz,Peter Tino,Rafal Mantiuk,Cesar Hervas-Martinez
3+阅读 · 2019年3月24日
Jian Li,Zhaopeng Tu,Baosong Yang,Michael R. Lyu,Tong Zhang
8+阅读 · 2018年10月24日
Zhewei Wang,Bibo Shi,Charles D. Smith,Jundong Liu
4+阅读 · 2018年5月15日
Hanxiao Wang,Shaogang Gong,Xiatian Zhu,Tao Xiang
3+阅读 · 2018年5月4日
Jaakko Lehtinen,Jacob Munkberg,Jon Hasselgren,Samuli Laine,Tero Karras,Miika Aittala,Timo Aila
3+阅读 · 2018年3月12日
Erhan Gundogdu,A. Aydin Alatan
9+阅读 · 2018年3月10日
Akshay Mehra,Jihun Hamm,Mikhail Belkin
3+阅读 · 2018年2月12日
Jon Almazan,Bojana Gajic,Naila Murray,Diane Larlus
13+阅读 · 2018年1月16日
Anastasia Pentina,Christoph H. Lampert
3+阅读 · 2017年6月8日
Top