Knowledge Graph (KG) and its variant of ontology have been widely used for knowledge representation, and have shown to be quite effective in augmenting Zero-shot Learning (ZSL). However, existing ZSL methods that utilize KGs all neglect the intrinsic complexity of inter-class relationships represented in KGs. One typical feature is that a class is often related to other classes in different semantic aspects. In this paper, we focus on ontologies for augmenting ZSL, and propose to learn disentangled ontology embeddings guided by ontology properties to capture and utilize more fine-grained class relationships in different aspects. We also contribute a new ZSL framework named DOZSL, which contains two new ZSL solutions based on generative models and graph propagation models, respectively, for effectively utilizing the disentangled ontology embeddings. Extensive evaluations have been conducted on five benchmarks across zero-shot image classification (ZS-IMGC) and zero-shot KG completion (ZS-KGC). DOZSL often achieves better performance than the state-of-the-art, and its components have been verified by ablation studies and case studies. Our codes and datasets are available at https://github.com/zjukg/DOZSL.


翻译:知识图(KG)及其本体学变体被广泛用于知识代表,并表明在加强零光学习(ZSL)方面相当有效。然而,现有的ZSL方法使用KGs,这些方法都忽视了KGs所代表的阶级间关系的内在复杂性。一个典型特征是,一个班级往往与其他班级在不同语义方面有联系。在本文件中,我们侧重于加强ZSL的理论,并提议学习由本体特性指导的分解本体嵌入,以捕捉和利用不同方面的更精细的阶级关系。我们还贡献了一个名为DZSL的新ZSL框架,它分别包含基于基因模型和图表传播模型的两种新的ZSL解决方案,以便有效利用分解的语义嵌入。我们对零光图像分类(ZS-IMGC)和零光KG完成(ZS-KGC)的五个基准进行了广泛的评价。DSLS往往比州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州/州研究的案例研究)的案例研究)的案例研究的案例研究的案例研究的案例研究)的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究的案例研究研究,已经验证的案例研究的案例研究的

3
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
征稿 | International Joint Conference on Knowledge Graphs (IJCKG)
开放知识图谱
2+阅读 · 2022年5月20日
IEEE ICKG 2022: Call for Papers
机器学习与推荐算法
3+阅读 · 2022年3月30日
会议交流 | IJCKG: International Joint Conference on Knowledge Graphs
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
17+阅读 · 2021年2月15日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员