Legal Judgment Prediction (LJP), aiming to predict a judgment based on fact descriptions according to rule of law, serves as legal assistance to mitigate the great work burden of limited legal practitioners. Most existing methods apply various large-scale pre-trained language models (PLMs) finetuned in LJP tasks to obtain consistent improvements. However, we discover the fact that the state-of-the-art (SOTA) model makes judgment predictions according to irrelevant (or non-casual) information. The violation of rule of law not only weakens the robustness and generalization ability of models but also results in severe social problems like discrimination. In this paper, we use causal structural models (SCMs) to theoretically analyze how LJP models learn to make decisions and why they can succeed in passing the traditional testing paradigm without learning causality. According to our analysis, we provide two solutions intervening on data and model by causality, respectively. In detail, we first distinguish non-causal information by applying the open information extraction (OIE) technique. Then, we propose a method named the Causal Information Enhanced SAmpling Method (CIESAM) to eliminate the non-causal information from data. To validate our theoretical analysis, we further propose another method using our proposed Causality-Aware Self-Attention Mechanism (CASAM) to guide the model to learn the underlying causality knowledge in legal texts. The confidence of CASAM in learning causal information is higher than that of CIESAM. The extensive experimental results show that both our proposed methods achieve state-of-the-art (SOTA) performance on three commonly used legal-specific datasets. The stronger performance of CASAM further demonstrates that causality is the key to the robustness and generalization ability of models.


翻译:法律判决预测(LJP)旨在基于事实描述和法律规则预测判决结果,为缓解法律从业人员巨大的工作负担提供法律帮助。目前的大多数方法都采用各种大规模预训练语言模型(PLMs)在LJP任务中进行微调,以获得一致的改进。然而,我们发现当前最先进的模型根据无关或非因果关系的信息进行判决预测。对于违反法治原则的判断不仅会削弱模型的鲁棒性和普适性,而且会导致严重的社会问题,如歧视等。本文使用因果结构模型(SCMs)进行理论分析,以了解LJP模型如何学习做出决策以及为什么它们可以在不学习因果关系的情况下通过传统的测试范式。根据我们的分析,我们提供了两种分别基于数据和模型干预因果关系的解决方案。具体而言,我们首先通过应用开放信息提取(OIE)技术区分非因果关系信息。然后,我们提出了一个名为“Causal Information Enhanced Sampling Method(CIESAM)”的方法,以消除数据中的非因果关系信息。为了验证我们的理论分析,我们进一步提出了另一种方法,使用我们提出的“Cause-Aware Self-Attention Mechanism(CASAM)”来指导模型学习法律文本中的潜在因果关系知识。 CASAM在学习因果关系信息方面的自信度比CIESAM更高。广泛的实验结果表明,我们提出的两种方法在三个常用法律特定数据集上均取得了最先进的性能。CASAM的更强表现进一步证明因果关系是模型鲁棒性和普适性的关键。

0
下载
关闭预览

相关内容

法律是国家制定或认可的,由国家强制力保证实施的,以规定权利和义务为内容的具有普遍约束力的社会规范。
【CMU博士论文】神经推理问答,151页pdf
专知会员服务
42+阅读 · 2023年6月5日
专知会员服务
34+阅读 · 2021年9月5日
EMNLP 2022 | 校准预训练模型中的事实知识
PaperWeekly
1+阅读 · 2022年11月22日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
读书报告 | CN-DBpedia: A Chinese Knowledge Extraction System
科技创新与创业
19+阅读 · 2018年1月4日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
26+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
21+阅读 · 2021年12月31日
Arxiv
19+阅读 · 2021年6月15日
VIP会员
相关VIP内容
【CMU博士论文】神经推理问答,151页pdf
专知会员服务
42+阅读 · 2023年6月5日
专知会员服务
34+阅读 · 2021年9月5日
相关基金
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
26+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员