CVPR 2018 | 鸡尾酒网络DCTN:源分布结合律引导的迁移学习框架

2018 年 6 月 12 日 机器之心

机器之心经授权发布

作者:Ruijia Xu、Ziliang Chen、Wangmeng Zuo、Junjie Yan、Liang Lin


来自中山大学、哈尔滨工业大学以及商汤科技公司的研究人员联合提出了一种名为「鸡尾酒网络」(DCTN)的深度迁移学习框架,将现有的单源域适应过程推广到了更加真实和通用的多源域适应场景。DCTN 启发于 2009 年 Y. Mansou [1] 的源分布结合律(source distribution combining rule)。具体而言,DCTN 通过多路对抗机制学习领域无关的特征表达,依据对抗相似性分数作为多源分布结合律的权重和各自的源分类器合作从而对目标域样本进行联合识别,并使用高置信度的伪标注样本对特征表达进行再适应从而引入更强的判别性能。实验中,DCTN 在 Office31, Image-CLEF 以及新提出的基于同时迁移四个数据源的 Digit-five 评测数据集上均取得了比较显著的性能提升。该论文已经被 CVPR 2018 大会接收。


一、简介


随着大规模数据的不断产生和依靠人力进行信息标注的困难,域适应迁移方法逐渐成为机器学习领域中一项非常重要的研究课题。域适应学习旨在适配不同领域数据间的特征分布,提升不同领域间分类器迁移后的性能表现,解决目标域数据缺乏标注信息的难题。域适应迁移学习同时也是工业界的一项关键技术手段,在人脸识别、自动驾驶和医学影像等垂直领域均具有较强的应用需求。比如在自动驾驶领域,如何最小化虚拟环境与真实环境、其他城市和当前城市的领域偏差?又比如在医学影像领域,如何综合利用多源医疗影像给出全面诊断?这些都是领域迁移学习极具应用潜力的场景。


值得注意的是,我们在生活中搜集到的数据源往往是来自各种渠道的。不同渠道的得到的数据源分别与目标域的数据存在偏移现象,而且这些数据源之间也存在偏移。一种更值得广泛考虑的情况是,多个数据源之间的类别也具有差异性,这对多源迁移学习带来了新的挑战 (单源域适应与多源域适应的区别于联系见图 1)。然而,虽然深度迁移学习已经在单领域适应问题上取得各种研究进展,如何运用深度网络去解决多领域适应问题目前依然处于接近空白的阶段。


图 1.(a)单元域适应;(b)多源域适应


二、鸡尾酒背后的理论驱动


多数据源的迁移学习研究可以追溯到 J. Blitzer [1] 和 Y. Mansour [2] 的理论工作。其中 [1] 提出了第一个多源迁移学习的学习上界,为以后的多源域适应学习模型设计打下了基础;[2] 则提出了迁移目标域分布由多个源域分布混合组成。基于这种设定下,他们提出了源分布结合律(source distribution combining rule)。直观而言,他们认为不同的源域学习应该具有自己的分类器,而非使用一个单一分类器去统一所有源域与目标域分类结果。同时,不同源域跟目标域之间分别有相似度,那么与目标域更相似的源域,它的分类器对于目标域的数据进行分类的结果应该更可信。根据以上两点,目标域的分类结果应该由多个源域的分类结果加权而成,而每个源分类权重应该要反映对应源域与目标域的相似性。


三、鸡尾酒网络(Deep CockTail Network)

 

图 2. 鸡尾酒网络 DCTN


为满足多源分布结合律,我们提出 Deep CockTail Network(鸡尾酒网络 DCTN)。在图 2 的具体数据流中,我们利用共享特征网络对所有源域以及目标域进行特征建模,然后利用多路对抗域适应技术(基于单路对抗域适应(adversarial domain adaptation)下的扩展,对抗域适应的共享特征网络对应于生成对抗学习 (GAN) 里面的生成器),每个源域分别与目标域进行两两组合对抗学习域不变特征。同时每个源域也分别进行监督学习,训练基于不同源类别下的多个 softmax 分类器。注意到,基于对抗学习的建模,我们在得到共享特征网络的同时,也可以得到多个源分别和目标域对抗的判别器。这些判别器在对于目标域的数据,可以分别给出与每一个源域之间的混淆分数(perplexity score)去衡量该源域与目标域之间的相似性。因此,对于每一个来自目标域的数据,我们首先利用不同源下的 softmax 分类器给出其多个分类结果。然后,基于每一个类别,我们找到包含该类别的所有源域 softmax 分类概率,再基于这些源域与目标域的混淆分数,对分类概率取加权平均得到每个类别的分数。简而言之就是,越跟目标域相识的源域混淆度会更高,意味着其分类结果更可信从而具有更高的加权权值。需要注意的是,我们并没有直接作用于所有 softmax 分类器上反而是基于每个类别分别进行加权平均处理。这是因为在我们的假设下,每个源的类别不一定共享,从而 softmax 结果不能简单相加。当然,我们的方法也适用于所有源共享类别的情况,这样我们的公式会等价于直接将 softmax 分类结果进行加权相加。


考虑到不同源域数据分布间的差异性,某些源域的样本对提升目标域分类性能有较大的正向迁移表现,而有些源域的样本域适应性能则较弱甚至带来相对的负面迁移影响。为此,我们设计了如下基于域间困难样本的梯度回传策略,具体可参考图 3 的算法流程。

 

图 3. 域间困难样本的梯度回传策略


基于多路对抗域适应下,我们进一步提出分类再适应机制。我们基于各源域的分类器和对抗相似性分数对目标域图片进行识别,选取高置信度的目标域伪标记样本微调特征提取器和多源分类器。如此下两个域适应学习进行交替迭代直至模型收敛。整个 DCTN 的训练可参考图 4 的算法流程。


四、实验


图 4. DCTN 的学习过程


论文在 Office-31、ImageCLEF 等主流域适应数据集上进行了实验。其中 Office-31 数据集来自 Amazon(电商图片)、Webcam(网络摄像头拍摄图片)、DSLR(单反相机拍摄图片) 三个视觉领域,共包含 4652 张图片 31 个类别标签。论文以单源最佳模型、多源合并模型等作为评测标准,与 DAN、RevGrad 等流行算法进行了充分对比。

 


多源域适应框架在 Office-31 和 ImageCLEF 数据集上的分类准确率


除了常规的域适应设置,我们还进行了包含类别偏差的实验探索。仍然以 Office-31 数据集为例,令两个源域分别包含前三分之二和后三分之二的类别标签,据此进行多源域适应过程,对目标域的图片类别进行预测。

 

类别偏差设置下在 A,D→W 任务上的分类准确率


类别偏差设置下在 I,P→C 任务上的分类准确率


最后,我们构建了四对一的多源迁移学习任务标准 Digit-five,同时给出在该多源迁移学习标准下的两个多源域适应任务结果。我们可以看出 DCTN 明显优于目前主流的深度迁移学习算法。



论文:Deep Cocktail Network: Multi-source Unsupervised Domain Adaptation with Category Shift



项目链接:http://www.sysu-hcp.net/deep-cocktail-network/


[1] J. Blitzer, K. Crammer, A. Kulesza, F. Pereira, and J. Wortman. Learning bounds for domain adaptation. In Advances in neural information processing systems, pages 129–136, 2008. 

[2] Y. Mansour, M. Mohri , and A. Rostamizadeh . Domain adaptation with multiple sources. In Advances in neural information processing systems



本文为机器之心经授权发布,转载请联系本公众号获得授权

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

登录查看更多
0

相关内容

【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
专知会员服务
111+阅读 · 2020年6月26日
【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
【KDD2020】多源深度域自适应的时序传感数据
专知会员服务
61+阅读 · 2020年5月25日
华为发布《自动驾驶网络解决方案白皮书》
专知会员服务
125+阅读 · 2020年5月22日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
CVPR 2019 Oral 论文解读 | 无监督域适应语义分割
AI科技评论
49+阅读 · 2019年5月29日
【学界】对抗式协作:一个框架解决多个无监督学习视觉问题
GAN生成式对抗网络
3+阅读 · 2018年6月30日
CVPR 2018 | 无监督语义分割之全卷积域适应网络
极市平台
8+阅读 · 2018年6月28日
独家 | 一文读懂迁移学习(附学习工具包)
数据派THU
11+阅读 · 2017年7月13日
Phase-aware Speech Enhancement with Deep Complex U-Net
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员