Contextual word representation models have shown massive improvements on a multitude of NLP tasks, yet their word sense disambiguation capabilities remain poorly explained. To address this gap, we assess whether contextual word representations extracted from deep pretrained language models create distinguishable representations for different senses of a given word. We analyze the representation geometry and find that most layers of deep pretrained language models create highly anisotropic representations, pointing towards the existence of representation degeneration problem in contextual word representations. After accounting for anisotropy, our study further reveals that there is variability in sense learning capabilities across different language models. Finally, we propose LASeR, a 'Low Anisotropy Sense Retrofitting' approach that renders off-the-shelf representations isotropic and semantically more meaningful, resolving the representation degeneration problem as a post-processing step, and conducting sense-enrichment of contextualized representations extracted from deep neural language models.


翻译:上层语言表达模型显示,在大量NLP任务上,上层语言表达模式显示出了巨大的改善,然而,他们的字感模糊能力仍然没有得到很好的解释。为了解决这一差距,我们评估了从深层预先培训的语言模式中提取的上层语言表达方式是否为某一特定词的不同感知提供了可辨别的表达方式。我们分析了代表性的几何方法,发现大多数深层未经培训的语言模式产生了高度的厌食性表达方式,指出在上层语言表达方式中存在着代代代代代相传的问题。在计算了厌食症后,我们的研究进一步揭示了不同语言模式之间在感知上存在差异性学习能力。最后,我们提出了“LASeR”方法,即“Low anisotropy Sense Retrofect ”方法,该方法使现代代代代代代代代代言问题作为后处理步骤加以解决,并对从深层神经语言模式中提取的上层语言表达方式进行感知丰富。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
.NET Core 原生DI+AOP实现注解式编程
DotNet
8+阅读 · 2019年9月9日
已删除
将门创投
8+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Towards Generalising Neural Implicit Representations
Arxiv
0+阅读 · 2021年6月11日
Arxiv
0+阅读 · 2021年5月28日
Arxiv
5+阅读 · 2020年3月26日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Arxiv
10+阅读 · 2018年3月22日
VIP会员
相关VIP内容
相关资讯
.NET Core 原生DI+AOP实现注解式编程
DotNet
8+阅读 · 2019年9月9日
已删除
将门创投
8+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员