©作者 | 员司雨
单位 | 复旦大学知识工场实验室
研究方向 | 元知识的获取与应用
实体分类(entity typing)旨在为实体指定类型,使机器可以更好地理解自然语言,并有利于实体链接和文本分类等下游任务。传统的实体分类范式存在两个问题:1. 它无法给实体分配预定义类型集以外的类型;2. 长尾类型存在很少的训练样本,因此难以解决少/零样本问题。
为了解决这些问题,本文提出了GET,一种新的生成式实体分类范式,通过预训练语言模型(PLM)为文本实体生成多个类型。图1是基于生成范式和分类范式对文本进行实体分类的结果展示图:
▲ 图1:基于生成式和分类范式的实体分类结果图
可以发现,PLM 可以为实体生成预定义类型集以外的类型,这些类型包含更丰富的语义信息。同时由于在预训练阶段已经学习到大量的知识,PLM 能够进行概念推理并有效解决少/零样本问题。
然而 PLM 存在的问题是无论最终是否在细粒度数据集上进行微调,都倾向于生成高频但粗粒度的类型,因此该范式引入课程学习(CL)的思想,仅需为模型提供少量人工标注数据和大量自动生成的低质量数据组成的异构数据,采用自步学习的方法,依靠课程对类型粒度以及数据异构型的理解自我调整学习进度,使 PLM 生成高质量的细粒度类型。
通过对不同语言和下游任务的数据进行的大量实验,证明了我们的 GET 模型优于 SOTA 的实体分类模型。该工作目前已被 EMNLP 2022 接收,论文和代码链接如下:
论文链接:
代码链接:
2.1 问题建模
2.2 模型框架
我们的模型框架由 prompt 构建、课程构建以及基于课程的模型训练构成。图2是基于课程学习的生成式实体分类框架图:
▲ 图2:基于课程学习的生成式实体分类框架图
2.1.1 prompt 构建
表 1 是基于 Hearst patterns 构建的 prompts,每个输入文本 X 与通过实体 M 构造的 prompt 相连作为模型的 input_data,要求 PLM 填充 prompt 中的空白。例如:输入“In the early 1980s, P&G tried to launch here a concentrated detergent under the Ariel brand name that it markets in Europe. P&G is a ”,输出“large detergent company”,“large detergent manufacturer”和“company”作为实体“P&G”的类型。
▲ 表1:基于Hearst patterns构造的prompt
2.2.2 课程构建
课程学习需要估计样本难度来确定使用样本进行模型训练的顺序,采取先简单后困难的顺序进行学习。首先,我们根据自动生成的数据类型的长度生成两个大小相同的训练样本子集:子集 A 的类型长度为 1,子集 B 的类型长度 ≥2,然后分别在 A 和 B 上训练 T5 并记录 loss。如图 4 所示,子集 B 具有更弱的收敛性和更高的交叉熵损失,这表明 PLM 更难拟合细粒度类型的训练样本。
▲ 图3:CE损失对比图
▲ 表2:实体类型数据集
整个训练数据表示为:
每个样本可表示为:
其中 是训练样本大小,根据固定的课程说明,CL 可以控制用于训练的数据顺序,即从 到 再到 。
2.2.3 基于课程的模型训练
考虑到根据预定义课程进行模型训练可能会忽略学习过程的反馈,我们采用自步学习让模型根据 loss 的反馈自我调整,将课程学习的目标定义为:
实现结果如表 3 所示,对于 BNN,GET 模型显著改进了 Precision;对于 FIGER,GET 模型能生成比 baseline 更多的实体类型;由表 4 可知,对于 Ultra-Fine,GET 模型大大提高了 Precision 并涵盖了更多的实体类型。
同时,GET 模型具有生成预定义类型集以外新类型的能力,MaNew 是在预定义类型集中生成的类型总数,MiNew 是每个实例的人工注释类型集(golden labeled set)之外生成的类型总数,R.New 是每个样本新生成类型的比率。列出的结果基于不同数据集中的测试集,如表 5 所示,我们的模型可以生成大量 golden labeled set 中没有的类型,增加实体类型的多样性。
▲ 表5:GET模型在不同数据集上生成新类型的数量和比率
3.2 实验二
我们还进行了消融实验,将模型与采用 FT,PLC,没有先验知识的 SPL(SPL w/o PK)的模型进行比较,其中 FT 直接在训练数据上进行微调,PCL 采用固定的课程指导模型学习,SPL w/o PK 采用无先验知识的 SPL。如表 6 所示,PCL 和 SPL 相对于 FT 能够生成更多实体类型且具有更多的细粒度类型,验证了 CL 的有效性。
▲ 表6:消融实验结果
同样由表 6 可知,SPL 相对于 PCL 能够生成更多实体类型。我们还记录每个 epoch 中训练样本的比率,如图 5 所示,SPL 逐步加入新的数据来训练模型,每一个子集的训练都可以看作预训练的过程,有助于后一个子集训练的正规化和模型优化,因此 SPL 可以更好指导模型找到全局最小损失并使其更具普遍性,证明了 CL 中 SPL 相对于 PCL 的优越性。
▲ 图4:训练样本比率图
同时,从表 6 还可以看出先验知识有助于模型生成更多实体类型,同时如图 6 所示,GET 模型会生成更多细粒度和高质量的类型,这是因为模型考虑了类型长度,给细粒度类型数据更高的权重,使得模型更加关注细粒度类型,验证了先验知识的有效性。
▲ 图5:不同方法中长度=1和长度≥2的类型比率
3.3 实验三
我们在短文本分类和实体链接等任务进行了实验,证明 GET 模型生成的类型可以促进下游任务。我们在 NLPCC2017 数据集中进行了实验,首先使用 NER 模型来识别文本中的实体,并直接将 GET模型应用于 NLPCC2017 数据集,以生成实体的类型。
然后选择 Bi-LSTM 实现分类。我们还收集了具有代表性的 KG CN-DBpedia 中相应类型的实体进行比较。表 7 的结果表明外部知识提高了分类性能,并且由 GET 模型生成的类型比直接从 KG 获得的类型更有效。
▲ 表7:基于Bi-LSTM的无/有不同外部知识的短文本分类结果
代表性实体链接模型 DCA-SL(Yang et al,2019)采用 KG 中的实体描述和三元组作为外部知识,以提高模型在实体链接任务中的性能。为了证明我们的模型生成的类型是高质量的,我们首先采用我们的模型为基于文本的实体生成类型。然后我们用生成的类型替换 KG 中原始三元组中的类型。
表 8 的结果表明,GET 模型生成的类型可以有效地提高 DCA-SL 的性能,这表明我们生成的实体类型具有较高的质量和意义。
▲ 表8:使用不同外部知识的模型结果对比
本文中,我们提出了一种新的实体类型生成范式,采用经过 SPL 课程学习训练的生成式 PLM。与传统的实体分类方法相比,我们的模型可以为给定的实体生成超出预定义类型集的新类型。我们在几个基准数据集上的大量实验证明,SPL 课程学习以及引入类型长度和子集顺序的先验知识有助于为实体生成更高质量的细粒度类型。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」