The \emph{Wiener index} is one of the most widely studied parameters in chemical graph theory. It is defined as the sum of the lengths of the shortest paths between all unordered pairs of vertices in a given graph. In 1991, \v{S}olt\'es posed the following problem regarding the Wiener index: Find all graphs such that its Wiener index is preserved upon removal of any vertex. The problem is far from being solved and to this day, only one graph with such property is known: the cycle graph on 11 vertices. In this paper, we solve a relaxed version of the problem, proposed by Knor et al.\ in 2018. For a given $k$, the problem is to find (infinitely many) graphs having exactly $k$ vertices such that the Wiener index remains the same after removing any of them. We call these vertices \emph{good} vertices and we show that there are infinitely many cactus graphs with exactly $k$ cycles of length at least 7 that contain exactly $2k$ good vertices and infinitely many cactus graphs with exactly $k$ cycles of length $c \in \{5,6\}$ that contain exactly $k$ good vertices. On the other hand, we prove that $G$ has no good vertex if the length of the longest cycle in $G$ is at most $4$.


翻译:\ emph{ Wiener 索引} 是化学图形理论中研究最广泛的参数之一 。 它被定义为在特定图形中所有未排序的顶点两对顶点之间最短路径长度的总和 。 1991 年,\ v{S}S}}olt\ 给 Wiener 索引带来了如下问题 : 查找所有图表, 这样它的 Wiener 索引在去除任何顶点后会得到保存 。 问题远没有解决, 到今天为止, 只有一张具有这种属性的最长图是已知的 : 11 顶点上的循环图。 在本文中, 我们解决了一个问题, Knor 和 al.\ 。 对于给定的美元, 问题在于找到( 绝对多) 的 美元 。 在删除任何顶点后, 维纳 指数仍然保持不变。 我们称之为这些顶点 = $ = g 的 。 。 我们显示, 在 $ $ $ $ 美元 美元 的 的 周期里没有 无限的 。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
TensorFlow 2.0 学习资源汇总
专知会员服务
67+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Arxiv
0+阅读 · 2021年7月16日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
TensorFlow 2.0 学习资源汇总
专知会员服务
67+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
相关论文
Arxiv
0+阅读 · 2021年7月16日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
3+阅读 · 2018年2月24日
Top
微信扫码咨询专知VIP会员