Lexical inference in context (LIiC) is the task of recognizing textual entailment between two very similar sentences, i.e., sentences that only differ in one expression. It can therefore be seen as a variant of the natural language inference task that is focused on lexical semantics. We formulate and evaluate the first approaches based on pretrained language models (LMs) for this task: (i) a few-shot NLI classifier, (ii) a relation induction approach based on handcrafted patterns expressing the semantics of lexical inference, and (iii) a variant of (ii) with patterns that were automatically extracted from a corpus. All our approaches outperform the previous state of the art, showing the potential of pretrained LMs for LIiC. In an extensive analysis, we investigate factors of success and failure of our three approaches.


翻译:上下文(LIIC)的法理推理是承认两个非常相似的句子(即只用一种表达方式表示的句子)之间的文字含义的任务,因此,可以把它视为以法律语义为重点的自然语言推理任务的变体,我们根据预先培训的语言模型制定和评价了这项任务的第一种方法:(一) 几发NLI分类器,(二) 以手制模式为基础的关系感应法,表达法理推理的语义,(三) 一种(二) 模式的变体,自动从一个材料中提取,我们的所有方法都与以往的艺术状态不同,显示为LIC预先培训的LMS的潜力。 我们通过广泛分析,调查了我们三种方法的成败因素。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
249+阅读 · 2020年4月19日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
92+阅读 · 2019年10月16日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Science 一周论文导读 | 2018 年 11 月 16 日
科研圈
7+阅读 · 2018年11月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
1+阅读 · 2021年4月5日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
3+阅读 · 2015年5月16日
VIP会员
相关VIP内容
因果图,Causal Graphs,52页ppt
专知会员服务
249+阅读 · 2020年4月19日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
92+阅读 · 2019年10月16日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
相关资讯
Top
微信扫码咨询专知VIP会员