由于其分散的性质,联邦学习(FL)系统在其训练过程中有一个内在的弱点,对抗后门攻击。在这种类型的攻击中,攻击者的目标是使用有毒的更新将所谓的后门植入到学习的模型中,这样,在测试时,模型的输出可以固定到特定输入的给定目标上。(举个简单的玩具例子,如果用户在一个手机键盘应用程序中输入“来自纽约的人”,该应用使用了一个后门的下一个单词预测模型,那么该模型就会自动补全句子,变成“来自纽约的人很粗鲁”)。之前的工作已经表明后门可以插入FL模型,但是这些后门通常是不持久的,也就是说,在攻击者停止上传有毒的更新后,它们不会留在模型中。因此,由于训练通常在生产FL系统中继续逐步进行,插入的后门可能直到部署才会存在。在这里,我们提出了Neurotoxin,一个简单的一行修改现有的后门攻击,通过攻击参数在训练中改变较小的量级。我们对十项自然语言处理和计算机视觉任务进行了详尽的评估,发现我们可以将最先进的后门的耐用性提高一倍。

成为VIP会员查看完整内容
17

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议,也是CCF-A类学术会议。ICML 2022 共收到5630 投稿,接收1117 篇 short oral,118篇 long oral,录用率为21.94%。
【ICML2022】针对数据注毒攻击的集体鲁棒性认证
专知会员服务
8+阅读 · 2022年6月18日
鲁棒和隐私保护的协同学习
专知会员服务
35+阅读 · 2021年12月22日
【AAAI2022】学会学习可迁移攻击
专知会员服务
15+阅读 · 2021年12月15日
专知会员服务
65+阅读 · 2021年8月1日
专知会员服务
14+阅读 · 2021年7月21日
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
联邦学习攻防研究综述
专知
2+阅读 · 2022年7月15日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
AAAI 2022|对抗攻击鲁棒的异质图神经网络
专知
3+阅读 · 2022年3月29日
《鲁棒和隐私保护的协同学习》综述论文
专知
4+阅读 · 2021年12月22日
ICLR'21 | GNN联邦学习的新基准
图与推荐
11+阅读 · 2021年11月15日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
1+阅读 · 2022年8月15日
Arxiv
22+阅读 · 2021年12月2日
Arxiv
19+阅读 · 2020年7月13日
已删除
Arxiv
32+阅读 · 2020年3月23日
VIP会员
相关VIP内容
【ICML2022】针对数据注毒攻击的集体鲁棒性认证
专知会员服务
8+阅读 · 2022年6月18日
鲁棒和隐私保护的协同学习
专知会员服务
35+阅读 · 2021年12月22日
【AAAI2022】学会学习可迁移攻击
专知会员服务
15+阅读 · 2021年12月15日
专知会员服务
65+阅读 · 2021年8月1日
专知会员服务
14+阅读 · 2021年7月21日
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
相关基金
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员