The scientific community generally discourages authors of research papers from citing papers that did not influence them because such "rhetorical" citations are assumed to degrade the literature and incentives for good work. Intuitively, a world where authors cite only substantively appears attractive. We argue that manding substantive citing may have underappreciated consequences on the allocation of attention and dynamism. We develop a novel agent-based model in which agents cite substantively and rhetorically. Agents first select papers to read based on their expected quality, read them and observe their actual quality, become influenced by those that are sufficiently good, and substantively cite them. Next, agents fill any remaining slots in the reference lists with papers that support their claims, regardless of whether they were actually influential. By turning rhetorical citing on-and-off, we find that rhetorical citing increases the correlation between quality and citations, increases citation churn, and reduces citation inequality. This occurs because rhetorical citing redistributes some citations from a stable set of elite-quality papers to a more dynamic set with high-to-moderate quality and high rhetorical value. Increasing the size of reference lists, often seen as an undesirable trend, amplifies the effects. In sum, rhetorical citing helps deconcentrate attention and makes it easier to displace incumbent ideas, so whether it is indeed undesirable depends on the metrics used to judge desirability.


翻译:科学界一般不鼓励研究论文的作者引用没有对他们产生影响的论文,因为这种“修辞性”引用被认为会降低文学价值和好工作的激励。从直观上讲,一个只引用实质内容的世界看起来很有吸引力。我们认为,要求实质性引用可能会对注意力和动力分配产生被低估的后果。我们开发了一个新的基于代理的模型,其中代理引用实质性和修辞性的文章。代理首先根据其预期的质量选择要阅读的文章,阅读它们并观察它们的实际质量,受到那些足够好的文章的影响,并实质性地引用它们。接下来,代理使用任何剩余的引用槽来填充支持他们论点的文章,无论它们是否实际上有影响力。通过打开和关闭修辞引用,我们发现修辞引用增加了质量与引用之间的相关性,增加了引用的变动性,并减少了引用的不平等性。这是因为修辞引用将某些引用从一组稳定的高质量文献中重新分配到一组具有高到中等质量和高修辞价值的更动态的文献。增加参考文献列表的大小,尽管通常被视为不良趋势,但会放大这些效应。总而言之,修辞引用有助于分散注意力,并使取代现有思想更加容易,因此是否不良取决于用于判断好坏的指标。

0
下载
关闭预览

相关内容

近期必读的七篇 ICLR 2021【因果推理】相关投稿论文
专知会员服务
68+阅读 · 2020年10月6日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
60+阅读 · 2020年1月18日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
22+阅读 · 2019年11月4日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
Go 运行时:4 年之后
InfoQ
0+阅读 · 2022年10月17日
赛尔原创@ACL 2022 | e-CARE: 可解释的因果推理数据集
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
深度学习医学图像分析文献集
机器学习研究会
17+阅读 · 2017年10月13日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月28日
Arxiv
0+阅读 · 2023年5月28日
Arxiv
0+阅读 · 2023年5月27日
VIP会员
相关VIP内容
近期必读的七篇 ICLR 2021【因果推理】相关投稿论文
专知会员服务
68+阅读 · 2020年10月6日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
49篇ICLR2020高分「图机器学习GML」接受论文及代码
专知会员服务
60+阅读 · 2020年1月18日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
22+阅读 · 2019年11月4日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
相关资讯
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
Go 运行时:4 年之后
InfoQ
0+阅读 · 2022年10月17日
赛尔原创@ACL 2022 | e-CARE: 可解释的因果推理数据集
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
大神 一年100篇论文
CreateAMind
15+阅读 · 2018年12月31日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
深度学习医学图像分析文献集
机器学习研究会
17+阅读 · 2017年10月13日
相关基金
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员