Idiomatic expressions are an integral part of natural language and constantly being added to a language. Owing to their non-compositionality and their ability to take on a figurative or literal meaning depending on the sentential context, they have been a classical challenge for NLP systems. To address this challenge, we study the task of detecting whether a sentence has an idiomatic expression and localizing it. Prior art for this task had studied specific classes of idiomatic expressions offering limited views of their generalizability to new idioms. We propose a multi-stage neural architecture with the attention flow mechanism for identifying these expressions. The network effectively fuses contextual and lexical information at different levels using word and sub-word representations. Empirical evaluations on three of the largest benchmark datasets with idiomatic expressions of varied syntactic patterns and degrees of non-compositionality show that our proposed model achieves new state-of-the-art results. A salient feature of the model is its ability to identify idioms unseen during training with gains from 1.4% to 30.8% over competitive baselines on the largest dataset.


翻译:单词表达方式是自然语言的一个组成部分,并且经常被添加到一种语言中。由于它们不具有分层性,而且能够根据感官环境而具有比喻或字面意义,因此它们是NLP系统的一个典型挑战。为了应对这一挑战,我们研究了检测一个句子是否具有独词表达方式并将其本地化的任务。先前,这项任务的艺术研究的是特定类别的单词表达方式,这些表达方式的通用性有限。我们建议了一个多阶段的神经结构,其中含有识别这些表达方式的注意流机制。网络有效地结合了不同级别的背景和词汇信息,使用字词和子字词表达方式。对三个最大基准数据集进行的经验性评价显示,我们提议的模型取得了新的艺术状态结果。模型的一个突出特征是,在培训期间能够识别看不见的单词,在最大数据集的竞争性基线上,从1.4%到30.8%不等。

0
下载
关闭预览

相关内容

专知会员服务
76+阅读 · 2021年9月27日
边缘机器学习,21页ppt
专知会员服务
83+阅读 · 2021年6月21日
专知会员服务
33+阅读 · 2020年12月28日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《Transformers模型》教程,64页ppt
专知会员服务
310+阅读 · 2020年11月26日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
153+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
4+阅读 · 2018年11月20日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Arxiv
0+阅读 · 2021年12月14日
Arxiv
12+阅读 · 2021年6月29日
Arxiv
3+阅读 · 2019年8月19日
A Compact Embedding for Facial Expression Similarity
VIP会员
相关VIP内容
专知会员服务
76+阅读 · 2021年9月27日
边缘机器学习,21页ppt
专知会员服务
83+阅读 · 2021年6月21日
专知会员服务
33+阅读 · 2020年12月28日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《Transformers模型》教程,64页ppt
专知会员服务
310+阅读 · 2020年11月26日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
153+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
4+阅读 · 2018年11月20日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Top
微信扫码咨询专知VIP会员