Scale-free networks are prevalently observed in a great variety of complex systems, which triggers various researches relevant to networked models of such type. In this work, we propose a family of growth tree networks $\mathcal{T}_{t}$, which turn out to be scale-free, in an iterative manner. As opposed to most of published tree models with scale-free feature, our tree networks have the power-law exponent $\gamma=1+\ln5/\ln2$ that is obviously larger than $3$. At the same time, "small-world" property can not be found particularly because models $\mathcal{T}_{t}$ have an ultra-large diameter $D_{t}$, i.e., $D_{t}\sim|\mathcal{T}_{t}|^{\ln3/\ln5}$ where $|\mathcal{T}_{t}|$ represents vertex number. In addition, we also study random walks on tree networks $\mathcal{T}_{t}$ and derive exact solution to mean hitting time $\langle\mathcal{H}_{t}\rangle$. The results suggest that analytic formula for quantity $\langle\mathcal{H}_{t}\rangle$ as a function of vertex number $\mathcal{T}_{t}$ has a power-law form, i.e., $\langle\mathcal{H}_{t}\rangle\sim|\mathcal{T}_{t}|^{1+\ln3/\ln5}$ , a characteristic that is rarely encountered in the realm of scale-free tree networks. Lastly, we execute extensive experimental simulations, and find that empirical analysis is in strong agreement with theoretical results.


翻译:在各种复杂的系统中普遍观测到无规模网络, 这引发了与此类网络模型相关的各种研究。 在这项工作中, 我们提议了一个增长树网络的组合 $\ mathcal{ T\\ t} 美元, 以迭接方式, 其结果为无规模 。 相对于大多数已公布的无规模功能树模型, 我们的树网络拥有明显大于$\ gamma=1\ ln5/ ln2美元的权力- 美元 。 同时, “ 小世界” 属性无法找到, 特别是因为模型 $\ mathcal{ T\ t} 以超大直径 $ D% t 。 也就是说, $\ t\ t\\ t\\ t\ t\ t\ t\ t\ t} 美元 。 与大多数已出版的无规模树模型相反, 我们还要研究树网络上的随机行走道 $\\\\\ malc} t, 和直径的答案是 $\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\ r\ ma\ ma\ ma\ ma\ max max max max max max max max max max max max max 。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
专知会员服务
17+阅读 · 2020年9月6日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
递归神经网络
Datartisan数据工匠
4+阅读 · 2018年8月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年3月5日
Arxiv
0+阅读 · 2021年3月3日
Arxiv
0+阅读 · 2021年3月2日
Arxiv
6+阅读 · 2020年10月8日
Arxiv
3+阅读 · 2018年8月17日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
递归神经网络
Datartisan数据工匠
4+阅读 · 2018年8月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员