传统的无监督多源域适应(Domain Adaptation)方法假设所有源域都可以直接访问。然而,该假设忽略了隐私保护政策,即所有数据和计算都必须在本地进行。在隐私保护要求下进行域适应存在三个挑战:首先,最小化域间距离需获取源域和目标域的数据并进行成对计算,而源域数据本地存储,不可访问。其次,通信成本和隐私安全限制了现有域适应方法的应用,例如域对抗训练。最后,由于无法鉴别源域数据质量,更易出现不相关或恶意的源域,从而导致负迁移。为解决上述问题,我们提出一种满足隐私保护要求的去中心化无监督域适应范式,称为基于知识蒸馏的去中心化域适应(KD3A),通过对来自多个源域的模型进行知识蒸馏来进行知识迁移。大量实验表明,KD3A显著优于其他前沿域适应方法。此外,与其他去中心化的域适应方法相比,KD3A 对负迁移具有鲁棒性,并可将通信成本降低100倍。

https://www.zhuanzhi.ai/paper/beaaa180592138335a9921f38b2a06d5

成为VIP会员查看完整内容
20

相关内容

现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习
专知会员服务
11+阅读 · 2021年9月10日
专知会员服务
16+阅读 · 2021年7月13日
专知会员服务
35+阅读 · 2021年7月9日
专知会员服务
61+阅读 · 2021年6月11日
专知会员服务
26+阅读 · 2021年2月2日
专知会员服务
112+阅读 · 2020年11月16日
专知会员服务
125+阅读 · 2020年8月7日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
联邦学习简介
AINLP
5+阅读 · 2020年8月6日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
打破数据孤岛:联邦学习近期重要研究进展
机器之心
9+阅读 · 2019年9月30日
CVPR 2019 Oral 论文解读 | 无监督域适应语义分割
AI科技评论
49+阅读 · 2019年5月29日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
Arxiv
3+阅读 · 2017年12月18日
VIP会员
相关VIP内容
专知会员服务
11+阅读 · 2021年9月10日
专知会员服务
16+阅读 · 2021年7月13日
专知会员服务
35+阅读 · 2021年7月9日
专知会员服务
61+阅读 · 2021年6月11日
专知会员服务
26+阅读 · 2021年2月2日
专知会员服务
112+阅读 · 2020年11月16日
专知会员服务
125+阅读 · 2020年8月7日
相关资讯
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
联邦学习简介
AINLP
5+阅读 · 2020年8月6日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
打破数据孤岛:联邦学习近期重要研究进展
机器之心
9+阅读 · 2019年9月30日
CVPR 2019 Oral 论文解读 | 无监督域适应语义分割
AI科技评论
49+阅读 · 2019年5月29日
微信扫码咨询专知VIP会员