Distributional semantics based on neural approaches is a cornerstone of Natural Language Processing, with surprising connections to human meaning representation as well. Recent Transformer-based Language Models have proven capable of producing contextual word representations that reliably convey sense-specific information, simply as a product of self-supervision. Prior work has shown that these contextual representations can be used to accurately represent large sense inventories as sense embeddings, to the extent that a distance-based solution to Word Sense Disambiguation (WSD) tasks outperforms models trained specifically for the task. Still, there remains much to understand on how to use these Neural Language Models (NLMs) to produce sense embeddings that can better harness each NLM's meaning representation abilities. In this work we introduce a more principled approach to leverage information from all layers of NLMs, informed by a probing analysis on 14 NLM variants. We also emphasize the versatility of these sense embeddings in contrast to task-specific models, applying them on several sense-related tasks, besides WSD, while demonstrating improved performance using our proposed approach over prior work focused on sense embeddings. Finally, we discuss unexpected findings regarding layer and model performance variations, and potential applications for downstream tasks.


翻译:基于神经方法的分布式语义是自然语言处理的基石,与人的意义代表也有着惊人的联系。最近以变异语言为基础的语言模型已证明能够产生背景文字表达方式,能够可靠地传递感官特有信息,仅作为自我监督的产物。先前的工作表明,这些背景表述方式可以用来准确代表大感性目录,作为感觉嵌入,其程度是Word Sense Disamgication(WSD)任务远程解决方案比为任务专门培训的模式要好。然而,除了WSD外,对于如何使用这些神经语言模型来产生感官嵌入器,以更好地利用每个NLM的含义代表能力。在这项工作中,我们引入了一种更加有原则性的方法,利用来自NLM所有层次的信息作为感性嵌入,对14 NLM 变式的预测性分析提供了信息。我们还强调这些感知觉与任务特有差异性结合的多功能,除了WSD外,将这些感性应用于若干与感性相关的任务,同时用我们用我们提议的模型展示了改进的绩效,而超越了先前工作的重点变化和下游应用。

0
下载
关闭预览

相关内容

专知会员服务
42+阅读 · 2021年4月23日
专知会员服务
123+阅读 · 2020年9月8日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
3+阅读 · 2019年8月26日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Top
微信扫码咨询专知VIP会员