A graphon that is defined on $[0,1]^d$ and is H\"older$(\alpha)$ continuous for some $d\ge2$ and $\alpha\in(0,1]$ can be represented by a graphon on $[0,1]$ that is H\"older$(\alpha/d)$ continuous. We give examples that show that this reduction in smoothness to $\alpha/d$ is the best possible, for any $d$ and $\alpha$; for $\alpha=1$, the example is a dot product graphon and shows that the reduction is the best possible even for graphons that are polynomials. A motivation for studying the smoothness of graphon functions is that this represents a key assumption in non-parametric statistical network analysis. Our examples show that making a smoothness assumption in a particular dimension is not equivalent to making it in any other latent dimension.


翻译:以 $[0,1,1 =d$] 定义的图形,为 H\"older$"( ALpha), 以一些 $d\ ge2$ 和 $\ alpha\ in( 0, 1) 继续 美元为 H\ " older$( ALpha) 和 $\ " older$( ALpha), 以 $\ " older$( ALpha), 以 $ d2$ 和 $\ alpha\ in( 0. 0, 1) 为单位, 可以用 $ $ $, $ 0. 0, 1$ 的图形表示, $ $0, 1 $, $, $, $, $, ALphapha\\\\\\\\\ $( $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $, $,

0
下载
关闭预览

相关内容

图神经网络综述 (中文版),14页pdf
专知会员服务
330+阅读 · 2020年11月24日
【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
【干货书】机器学习Primer,122页pdf
专知会员服务
105+阅读 · 2020年10月5日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
171+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年3月15日
Arxiv
0+阅读 · 2021年3月12日
Arxiv
0+阅读 · 2021年3月12日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关VIP内容
图神经网络综述 (中文版),14页pdf
专知会员服务
330+阅读 · 2020年11月24日
【干货书】机器学习速查手册,135页pdf
专知会员服务
124+阅读 · 2020年11月20日
【干货书】机器学习Primer,122页pdf
专知会员服务
105+阅读 · 2020年10月5日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
171+阅读 · 2019年10月11日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员