清华THUNLP多标签分类论文笔记:基于类别属性的注意力机制解决标签不均衡和标签相似问题

2019 年 12 月 29 日 AINLP

作者:太子長琴(NLP算法工程师)




编者按:AINLP公众号作者,星球嘉宾太子長琴同学之前在AINLP芝麻街分享了这篇论文 Few-Shot Charge Prediction with Discriminative Legal Attributes Note 的阅读笔记,本文为全文分享:






Paper: http://nlp.csai.tsinghua.edu.cn/~tcc/publications/coling2018_attribute.pdf

code: https://github.com/thunlp/attribute_charge

核心思想:基于类别属性的注意力机制共同学习属性感知和无属性的文本表示。

这是 COLING2018 上的一篇老论文了,最近因为一些事情正好遇上,当时大概看了一下就发现这篇文章正好解决了我之前在做多分类任务时没有解决的问题。所以拿来记录一下,顺便研究下代码。

Abstract

本文主要解决罪名预测(根据刑事法律文书中的案情描述和事实部分,预测被告人被判的罪名)中的两个问题:

  • 数据不平衡问题:有些罪名的 case 太少

  • 标签相似的问题:有些罪名意思过于接近

文章通过提取罪名相关属性作为额外特征,不仅为 case 少的罪名类别提供了信息,同时还可以作为鉴别相似标签的有效信号。结果在 few-shot 场景下比 baseline 取得 50% 的提升。

看到这里当时就有两个反应:卧槽,为啥这么简单我没想到?卧槽,为啥这么简单的方法效果居然这么好?

Introduction

传统的做法是人工设计特征,包括文本相关(字、词、短语)和属性特征相关(日期,位置,条款,类型),目前基本都是用深度学习的方法在做了。

不过依然有两个主要挑战:

  • Few-Shot Charges:实际场景中,最多的 10 种罪名占了 78.1%,最少的 50 种罪名仅占不到 0.5% 而且大部分就 10 个左右的案例。传统的方法一般忽略少的,深度学习需要一定量的训练样本。所以,这个问题成为决定一个系统鲁棒性和有效性的关键。

  • Confusing Charges:比如(盗窃,抢劫),(挪用资金,挪用公款),它们的定义仅在验证特定行为时有所不同,对应案例中的条件常常非常相似。

为了解决这两个问题,本文建议考虑具有区别罪名的法律属性,并将这些属性作为犯罪事实描述和罪名之间的映射。具体而言,选中 10 个有代表属性的罪名,然后进行低成本类别级构建:对每个罪名,注释每个属性的值(是,否或不可用)。

有了属性注释后,本文提出一个多任务学习框架来同时预测每个案例的属性和罪名。在模型中,使用属性注意力机制来捕获与特定属性相关的关键事实信息。之后,将这些属性感知与无属性事实表征(文本表征)结合起来,预测最终的罪名。

这样做的两个原因:

  • 这些属性可以提供有关如何区分相似罪名的明确知识。

  • 所有罪名共享这些属性,知识可以从高频罪名转向低频罪名。

本文的三个主要贡献:

  • 首先专注于 Few-Shot Charges 和 Confusing Charges。

  • 提出了一种新颖的多任务学习框架,以共同推断案件的属性和指控。采用注意力机制学习属性感知的事实表示。

  • 在真实数据集上结果优于其他基准,在 few-short 罪名上的提升超过 50%。

Related Work

Zero-Shot Classification

与计算视觉中的 Zero-Shot 相关。有许多基于属性的模型,属性在不同类别间共享并提供中间表示。

  • Lampert et al. (2014) 提出了 direct attribute prediction 和 indirect attribute prediction,并提出可以预训练,当需要寻找新的合适的对象类别时就不用再训练的属性分类器。

  • Akata et al. (2013) 提出将基于属性的分类任务转为标签 embedding 任务。

  • Jayaraman, Grauman (2014) 引入随机森林方法,强调了未知类别属性预测的不可靠性。

除了属性外,还可以引入其他信息:

  • Elhoseiny et al. (2014) 使用标签的文本描述在文本特征和视觉特征之间传递知识。

  • Zero-Shot 除了用在 object recognition 外,还被用于 activity recognition 和 event recognition

Charge Prediction

法律领域一直致力于自动裁决。

  • Kort (1957) 使用定量方法计算事实元素的数值预测。

  • Nagel (1963) 利用相关性分析对重新分配案件进行预测。

  • Keown (1980) 引入数学模型,如线性模型和最近邻。

这些模型通常限于标签少的小型数据集。

在机器学习兴起时,问题转化为文本分类,通常需要从案例中提取特征。

  • Lin 等 (2012) 提取 21 个法律因素标签分类。

  • Mackaay 和 Robillard (1974) 提取了 Ngram 和通过语义相似 Ngram 聚类得到的主题作为特征。

  • Sulea 等 (2017) 提出了基于 SVM 继承的系统,使用案例描述,案例的裁定和时间跨度作为输入。

不过这些方法只能提取在大数据集上难以收集的浅层语义表征或手动标签,而且,常规模型无法捕捉相似犯罪之间的细微差别。

随着深度学习的兴起,Luo et al. (2017) 提出了一个分层注意力网络同时预测罪名并提取相关文章。

Method

Discriminative Charge Attributes

为所有罪名引入了 10 个判别属性,对每个(罪名,属性)对,可以标记为是,否或不可用)。比如,故意杀人罪的指控在故意犯罪上标记为 “否”,在死亡时标记为 “是”,在国家机关标记为 “不适用”。对特定属性,特定案件的标签和相应罪名的标签应相同或不冲突。在实践中,手动标记了 149 种不同罪名的属性,然后为每个案例分配与其相应罪名相同的属性。

Formalizations

Charge Prediction

给定犯罪事实文本,预测一个罪名

Attributes Prediction

二分类任务,给定犯罪事实文本,预测每个属性的分类

Fact Encoder

LSTM + Max-Pooling 获得无属性文本表征

s 是 hidden states 的维度。n 是 time step。也就是取了每个 hidden state 中的最大值提出来重新组成一个向量作为句子的表征。

Attentive Attribute Predictor

采用注意力机制从犯罪事实文本中选择相关信息并生成属性感知的事实表示。

Step1: 输入为 hidden states 序列:h = {h1, ..., hn}

Step 2: 然后计算所有属性的 attention weights a = {a1, ..., ak}ai = [ai1,...ain]

ui 是第 i 个属性的上下文向量,用于计算元素对属性的信息程度。Wα 是所有属性共享的权重矩阵。

Step3: 然后得到属性感知的表示:g = {g1, ..., gk}gi = Σt ait ht

Step4: 最后用 g + softmax 获得 p 的预测结果:

Output Layer

属性无关 + 属性感知表示预测最终的罪名:

Optimization

包括两部分

Part1: 最小化预测罪名和真实罪名分布的交叉熵(C 是罪名总数)

Part2: 最小化每个属性预测分布和真实分布的交叉熵(求和是或否的 loss)

Ii 指示 label 是 yes/no (Ii=1) 还是 NA(Ii=0)

最终的 loss function(α 是超参数):

Experiments

Dataset Construction

数据来源:中国判决文书网

简单起见,将多个罪名的调整为一个罪名;同时为了检查模型在 few-shot 任务中的表现,将罪名调成为 149 个完全不同的(每个罪名至少包含 10 个案例)。

随机选择了 40 万案例构建了三个不同量级的数据集,它们包含的罪名相同,只是数量不同。

Attribute Selection and Annotation

如何选择属性呢?

  • 训练一个基于 LSTM 的罪名预测模型,在验证集上得到预测结果的混淆矩阵。

  • 筛选出相似罪名(标签相似)对,专家从中定义出 10 个能狗区分这些相似罪名的、有代表性的属性。

  • 使用这 10 个属性对所有的罪名低成本标注,所谓的低成本意思是只对 149 个罪名手动标注,而不是对所有的案例进行标注。

全文最经典的部分了。很聪明、优雅的做法。

Baselines

多个文本分类模型 + 一个罪名预测模型:

  • TFIDF + SVM:TFIDF 提取特征

  • CNN

  • LSTM

  • Fact-Law Attention Model: Luo et al. (2017)

Experiment Settings and Evaluation Metrics

  • max sequence length: 500

  • TFIDF feature size: 2000

  • Skip-Gram pre-train word embeddings (size 100)

  • LSTM hidden state size: 100

  • CNN filter (2, 3, 4, 5), filter size 25

  • α = 1

  • Adam

  • lr = 0.001

  • dropout = 0.5

  • batch size 64

  • Macro-F1

Results and Analysis

Few-Shot 任务的结果:(Low,≤ 10;High,> 100)

Ablation Test

  • 取消注意力机制时,对每个属性,将注意力机制替换为全连接层。

  • 取消属性感知表示时,退化为基于 LSTM 的典型多任务学习。

Case Study

江苏省南京市江宁区人民检察院指控,2013年4月2109时许, 被告人朱某在南京市江宁区横溪街道UNK社区美尚家具厂门前 ,因驾车问题与于某甲发生争执,后朱某纠集他人至美尚家 具厂车间内,持铁棍、斧子等工具对于某甲实施殴打,被害 人尤某在帮助于某甲抵挡时被砍伤,UNK某右侧顶骨骨折等 损伤经南京市公安局江宁分局法医鉴定,被害人尤某的损伤程度为轻伤

这个案件被判为故意伤害罪,故意伤害罪和骚扰是一对相似类别,都和暴力有关。一个重要的区别就是故意伤害罪有 “身体伤害” 的特征。

所以 Physical Injury 这个属性在这里一定是非常重要的,事实上模型也正确预测了 Physical Injury 的 label 是 yes,最终的罪名也预测为 “故意伤害罪”,相反,LSTM-200 则把结果预测为 “骚扰”。

从下面的注意力热力图也可以看出,注意力机制能够捕获当前属性相关的关键模式和语义。

Conclusion

为解决 Few-Shot 和标签相似问题,引入了判别法律属性,提出了基于属性的多任务学习模型。具体来说,模型通过利用基于属性的注意力机制来共同学习无属性和属性感知的事实表示。进一步的探索方向包括:更复杂的案件判断(如多标签)和更复杂的罪名属性。



本文由作者授权AINLP原创发布于公众号平台,点击'阅读原文'直达原文链接,欢迎投稿,AI、NLP均可。


原文链接:


https://yam.gift/2019/12/15/Paper/2019-12-15-Few-Shot-Charge-Prediction-with-Discriminative-Legal-Attributes/


推荐阅读

关系提取简述

知识图谱存储与查询:自然语言记忆模块(NLM)

AINLP-DBC GPU 使用体验指南

BERT论文笔记

XLNet 论文笔记

征稿启示| 让更多的NLPer看到你的文章

AINLP-DBC GPU 云服务器租用平台建立,价格足够便宜

我们建了一个免费的知识星球:AINLP芝麻街,欢迎来玩,期待一个高质量的NLP问答社区

关于AINLP


AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLP君微信(id:AINLP2),备注工作/研究方向+加群目的。


登录查看更多
1

相关内容

一个具体事物,总是有许许多多的性质与关系,我们把一个事物的性质与关系,都叫作事物的属性。 事物与属性是不可分的,事物都是有属性的事物,属性也都是事物的属性。 一个事物与另一个事物的相同或相异,也就是一个事物的属性与另一事物的属性的相同或相异。 由于事物属性的相同或相异,客观世界中就形成了许多不同的事物类。具有相同属性的事物就形成一类,具有不同属性的事物就分别地形成不同的类。
【SIGIR 2020】 基于协同注意力机制的知识增强推荐模型
专知会员服务
89+阅读 · 2020年7月23日
【ACL2020】基于图神经网络的文本分类新方法
专知会员服务
68+阅读 · 2020年7月12日
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
专知会员服务
111+阅读 · 2020年6月26日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
基于深度神经网络的少样本学习综述
专知会员服务
169+阅读 · 2020年4月22日
【浙江大学】使用MAML元学习的少样本图分类
专知会员服务
62+阅读 · 2020年3月22日
新加坡南洋理工最新37页《零样本学习综述》论文
专知会员服务
112+阅读 · 2019年10月20日
论文浅尝 | 多标签分类中的元学习
开放知识图谱
6+阅读 · 2019年9月25日
标签间相关性在多标签分类问题中的应用
人工智能前沿讲习班
22+阅读 · 2019年6月5日
基于小样本学习的意图识别冷启动
PaperWeekly
10+阅读 · 2019年5月12日
HAN:基于双层注意力机制的异质图深度神经网络
黑龙江大学自然语言处理实验室
19+阅读 · 2019年5月7日
手把手教你用Keras进行多标签分类(附代码)
数据派THU
11+阅读 · 2018年7月17日
CVPR 2018 笔记
计算机视觉战队
3+阅读 · 2018年5月25日
用CNN做在NLP句子分类
数据挖掘入门与实战
7+阅读 · 2018年5月9日
S4Net: Single Stage Salient-Instance Segmentation
Arxiv
10+阅读 · 2019年4月10日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
5+阅读 · 2018年10月23日
VIP会员
相关VIP内容
【SIGIR 2020】 基于协同注意力机制的知识增强推荐模型
专知会员服务
89+阅读 · 2020年7月23日
【ACL2020】基于图神经网络的文本分类新方法
专知会员服务
68+阅读 · 2020年7月12日
【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
专知会员服务
111+阅读 · 2020年6月26日
基于多头注意力胶囊网络的文本分类模型
专知会员服务
76+阅读 · 2020年5月24日
基于深度神经网络的少样本学习综述
专知会员服务
169+阅读 · 2020年4月22日
【浙江大学】使用MAML元学习的少样本图分类
专知会员服务
62+阅读 · 2020年3月22日
新加坡南洋理工最新37页《零样本学习综述》论文
专知会员服务
112+阅读 · 2019年10月20日
相关资讯
论文浅尝 | 多标签分类中的元学习
开放知识图谱
6+阅读 · 2019年9月25日
标签间相关性在多标签分类问题中的应用
人工智能前沿讲习班
22+阅读 · 2019年6月5日
基于小样本学习的意图识别冷启动
PaperWeekly
10+阅读 · 2019年5月12日
HAN:基于双层注意力机制的异质图深度神经网络
黑龙江大学自然语言处理实验室
19+阅读 · 2019年5月7日
手把手教你用Keras进行多标签分类(附代码)
数据派THU
11+阅读 · 2018年7月17日
CVPR 2018 笔记
计算机视觉战队
3+阅读 · 2018年5月25日
用CNN做在NLP句子分类
数据挖掘入门与实战
7+阅读 · 2018年5月9日
Top
微信扫码咨询专知VIP会员