关系分类(RC)是文本知识提取中的重要任务,而数据驱动方法虽然具有较高的性能,但却严重依赖于大量标注的训练数据。近年来,人们提出了许多少样本RC模型,并在一般领域数据集上取得了良好的结果,但当适应于特定领域(如医学)时,其性能急剧下降。本文提出了一种面向领域自适应任务(KEFDA)的知识增强少样本RC模型,该模型将通用知识图谱和领域特定知识图谱融合到RC模型中,以提高其领域自适应能力。该模型利用概念级的KGs,可以更好地理解文本的语义,并易于从少数实例中总结关系类型的全局语义。更重要的是,作为一种元信息,利用KGs的方式可以从现有任务转移到新的任务,甚至跨领域。具体来说,我们设计了一个知识增强的原型网络进行实例匹配,设计了一个关系元学习网络进行隐式关系匹配。这两个评分函数被组合在一起来推断新实例的关系类型。FewRel 2.0基准的领域适应挑战的实验结果表明,我们的方法显著优于最先进的模型(平均6.63%)。