零样本学习(Zero-shot Learning, ZSL)是一种针对从未出现在训练数据中的类别进行预测的学习方法,目前已成为研究热点。实现ZSL的关键是利用类的先验知识,构建类之间的语义关系,并使学习到的模型(例如,特性)能够从训练类(例如,可见类)转移到不可见类。然而,现有方法所采用的先验相对有限,语义不完全。本文通过基于本体的知识表示和语义嵌入,探索更丰富和更具竞争性的先验知识,为ZSL的类间关系建模。同时,为了解决可见类和不可见类之间的数据不平衡问题,我们提出了带有生成式对抗网络(GANs)的生成式ZSL框架。我们的主要发现包括: (i)一个本体增强的ZSL框架,可以应用于不同的领域,如图像分类(IMGC)和知识图谱补全(KGC); (ii)利用来自不同领域的多个零样本数据集进行综合评估,我们的方法往往比最先进的模型获得更好的性能。特别是,在IMGC的四个代表性的ZSL基线上,基于本体的类语义优于之前的预测,例如,在两个示例数据集上,类的词嵌入在标准ZSL中的平均精度为12.4点(见图4)。

https://www.zhuanzhi.ai/paper/455f8ab60b8550b4318debc0acebe2d3

成为VIP会员查看完整内容
32

相关内容

零样本学习是AI识别方法之一。简单来说就是识别从未见过的数据类别,即训练的分类器不仅仅能够识别出训练集中已有的数据类别,还可以对于来自未见过的类别的数据进行区分。这是一个很有用的功能,使得计算机能够具有知识迁移的能力,并无需任何训练数据,很符合现实生活中海量类别的存在形式。
专知会员服务
36+阅读 · 2021年4月18日
【WWW2021】双曲图卷积网络的协同过滤
专知会员服务
39+阅读 · 2021年3月26日
【WWW2021】REST:关系事件驱动的股票趋势预测
专知会员服务
32+阅读 · 2021年3月9日
专知会员服务
33+阅读 · 2020年9月25日
专知会员服务
39+阅读 · 2020年6月19日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
新加坡南洋理工最新37页《零样本学习综述》论文
专知会员服务
109+阅读 · 2019年10月20日
【基于元学习的推荐系统】5篇相关论文
专知
9+阅读 · 2020年1月20日
【NeurIPS2019】图变换网络:Graph Transformer Network
科普 | 动态本体简介
开放知识图谱
13+阅读 · 2017年11月11日
Arxiv
1+阅读 · 2021年4月16日
Arxiv
17+阅读 · 2021年2月15日
Nocaps: novel object captioning at scale
Arxiv
6+阅读 · 2018年12月20日
VIP会员
相关VIP内容
专知会员服务
36+阅读 · 2021年4月18日
【WWW2021】双曲图卷积网络的协同过滤
专知会员服务
39+阅读 · 2021年3月26日
【WWW2021】REST:关系事件驱动的股票趋势预测
专知会员服务
32+阅读 · 2021年3月9日
专知会员服务
33+阅读 · 2020年9月25日
专知会员服务
39+阅读 · 2020年6月19日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
新加坡南洋理工最新37页《零样本学习综述》论文
专知会员服务
109+阅读 · 2019年10月20日
微信扫码咨询专知VIP会员