The \emph{Wiener index} is one of the most widely studied parameters in chemical graph theory. It is defined as the sum of the lengths of the shortest paths between all unordered pairs of vertices in a given graph. In 1991, \v{S}olt\'es posed the following problem regarding the Wiener index: Find all graphs such that its Wiener index is preserved upon removal of any vertex. The problem is far from being solved and to this day, only one graph with such property is known: the cycle graph on 11 vertices. In this paper, we solve a relaxed version of the problem, proposed by Knor et al.\ in 2018. For a given $k$, the problem is to find (infinitely many) graphs having exactly $k$ vertices such that the Wiener index remains the same after removing any of them. We call these vertices \emph{good} vertices and we show that there are infinitely many cactus graphs with exactly $k$ cycles of length at least 7 that contain exactly $2k$ good vertices and infinitely many cactus graphs with exactly $k$ cycles of length $c \in \{5,6\}$ that contain exactly $k$ good vertices. On the other hand, we prove that $G$ has no good vertex if the length of the longest cycle in $G$ is at most $4$.


翻译:\ emph{ Wiener 索引} 是化学图形理论中研究最广泛的参数之一 。 它被定义为在特定图形中所有未排序的顶点两对顶点之间最短路径长度的总和 。 1991 年,\ v{S}S}}olt\ 给 Wiener 索引带来了如下问题 : 查找所有图表, 这样它的 Wiener 索引在去除任何顶点后会得到保存 。 问题远没有解决, 到今天为止, 只有一张具有这种属性的最长图是已知的 : 11 顶点上的循环图。 在本文中, 我们解决了一个问题, Knor 和 al.\ 。 对于给定的美元, 问题在于找到( 绝对多) 的 美元 。 在删除任何顶点后, 维纳 指数仍然保持不变。 我们称之为这些顶点 = $ = g 的 。 。 我们显示, 在 $ $ $ $ 美元 美元 的 的 周期里没有 无限的 。

0
下载
关闭预览

相关内容

因果图,Causal Graphs,52页ppt
专知会员服务
240+阅读 · 2020年4月19日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
169+阅读 · 2019年10月11日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年7月16日
Arxiv
0+阅读 · 2021年7月15日
Arxiv
0+阅读 · 2021年7月15日
Arxiv
0+阅读 · 2021年7月14日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
因果图,Causal Graphs,52页ppt
专知会员服务
240+阅读 · 2020年4月19日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
169+阅读 · 2019年10月11日
TensorFlow 2.0 学习资源汇总
专知会员服务
66+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2021年7月16日
Arxiv
0+阅读 · 2021年7月15日
Arxiv
0+阅读 · 2021年7月15日
Arxiv
0+阅读 · 2021年7月14日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
3+阅读 · 2018年2月24日
Top
微信扫码咨询专知VIP会员