Domain adaptation has received a lot of attention in recent years, and many algorithms have been proposed with impressive progress. However, it is still not fully explored concerning the joint probability distribution (P(X, Y)) distance for this problem, since its empirical estimation derived from the maximum mean discrepancy (joint maximum mean discrepancy, JMMD) will involve complex tensor-product operator that is hard to manipulate. To solve this issue, this paper theoretically derives a unified form of JMMD that is easy to optimize, and proves that the marginal, class conditional and weighted class conditional probability distribution distances are our special cases with different label kernels, among which the weighted class conditional one not only can realize feature alignment across domains in the category level, but also deal with imbalance dataset using the class prior probabilities. From the revealed unified JMMD, we illustrate that JMMD degrades the feature-label dependence (discriminability) that benefits to classification, and it is sensitive to the label distribution shift when the label kernel is the weighted class conditional one. Therefore, we leverage Hilbert Schmidt independence criterion and propose a novel MMD matrix to promote the dependence, and devise a novel label kernel that is robust to label distribution shift. Finally, we conduct extensive experiments on several cross-domain datasets to demonstrate the validity and effectiveness of the revealed theoretical results.


翻译:近些年来,对网域的适应引起了很多关注,许多算法都提出了令人印象深刻的进展。然而,对于这一问题的共同概率分布(P(X),Y)距离,仍未充分探讨这一问题的共同概率分布(P(X),Y)距离,因为根据最大平均值差异(联合最大平均值差异,JMD)得出的实证估计将涉及难以操纵的复杂的高压产品操作者。为了解决这个问题,本文件理论上产生了一种易于优化的统一的JMMD格式,并证明边际、等级有条件和加权等级有条件概率分布距离是我们使用不同标签内核的特殊案例,其中加权舱不仅能够实现类别一级跨域的特征协调,而且还能够利用先前的类别概率处理不平衡数据集。从已披露的统一JMD中,我们说明,JMMD将降低对分类的好处(差异性)的特性标签依赖度,当标签内核为加权等级时,对标签分配变化十分敏感。因此,我们利用了Hilbert Schmid 独立性标准,并提出了新的MMD矩阵标准,不仅可以实现跨类的特征调整,我们最终展示了对数据库的可靠性。

0
下载
关闭预览

相关内容

【阿里巴巴-CVPR2020】频域学习,Learning in the Frequency Domain
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
已删除
将门创投
7+阅读 · 2019年10月15日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
1+阅读 · 2021年3月19日
Arxiv
0+阅读 · 2021年3月17日
Arxiv
8+阅读 · 2020年8月30日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
7+阅读 · 2019年10月15日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员