Vossian Antonomasia is a prolific stylistic device, in use since antiquity. It can compress the introduction or description of a person or another named entity into a terse, poignant formulation and can best be explained by an example: When Norwegian world champion Magnus Carlsen is described as "the Mozart of chess", it is Vossian Antonomasia we are dealing with. The pattern is simple: A source (Mozart) is used to describe a target (Magnus Carlsen), the transfer of meaning is reached via a modifier ("of chess"). This phenomenon has been discussed before (as 'metaphorical antonomasia' or, with special focus on the source object, as 'paragons'), but no corpus-based approach has been undertaken as yet to explore its breadth and variety. We are looking into a full-text newspaper corpus (The New York Times, 1987-2007) and describe a new method for the automatic extraction of Vossian Antonomasia based on Wikidata entities. Our analysis offers new insights into the occurrence of popular paragons and their distribution.


翻译:Vossian Antonomasia 是一种自古以来就一直使用的巨型立体装置。它可以将一个人或另一个名称的实体的介绍或描述压缩成一种令人恼火的配方,最好用一个例子来解释:当挪威世界冠军Magnus Carlsen被描述为“象棋的莫扎特”时,我们所处理的是Vosian Antonomasia。这个模式很简单:一个源(Mozart)用来描述一个目标(Magnus Carlsen),意思的转移是通过修饰器(“象棋”)实现的。这个现象以前已经讨论过(以“超光学异质性异质”或以源对象为特别焦点,以“paragonomas”为重点),但是还没有采取基于实体的方法来探索其广度和多样性。我们正在研究一个通俗的报纸资料(1987-2007年纽约时报),并描述一种基于维基数据实体自动提取Vossian Antonomasia 的新方法。我们的分析为人们的抛物及其分布提供了新的了解。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
176+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
知识图谱本体结构构建论文合集
专知会员服务
106+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
4+阅读 · 2019年12月2日
The Measure of Intelligence
Arxiv
7+阅读 · 2019年11月5日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Object Detection in 20 Years: A Survey
Arxiv
48+阅读 · 2019年5月13日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
4+阅读 · 2019年12月2日
The Measure of Intelligence
Arxiv
7+阅读 · 2019年11月5日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
Object Detection in 20 Years: A Survey
Arxiv
48+阅读 · 2019年5月13日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
Top
微信扫码咨询专知VIP会员