We study the notion of $\gamma$-negative dependence of random variables. This notion is a relaxation of the notion of negative orthant dependence (which corresponds to $1$-negative dependence), but nevertheless it still ensures concentration of measure and allows to use large deviation bounds of Chernoff-Hoeffding- or Bernstein-type. We study random variables based on random points $P$. These random variables appear naturally in the analysis of the discrepancy of $P$ or, equivalently, of a suitable worst-case integration error of the quasi-Monte Carlo cubature that uses the points in $P$ as integration nodes. We introduce the correlation number, which is the smallest possible value of $\gamma$ that ensures $\gamma$-negative dependence. We prove that the random variables of interest based on Latin hypercube sampling or on $(t,m,d)$-nets do, in general, not have a correlation number of $1$, i.e., they are not negative orthant dependent. But it is known that the random variables based on Latin hypercube sampling in dimension $d$ are actually $\gamma$-negatively dependent with $\gamma \le e^d$, and the resulting probabilistic discrepancy bounds do only mildly depend on the $\gamma$-value.


翻译:我们研究随机变数的负负负依赖性概念。 这一概念放宽了负或负依赖性概念( 相当于美元负依赖性), 但是它仍然能确保测量的集中性, 并允许使用Chernoff- Hoffding- 或Bernstein 型的大型偏差界限。 我们根据随机点( P美元) 研究随机变量。 这些随机变量自然出现在对美元差异的分析中, 或对以美元作为整合节点的准蒙特卡洛 烹饪中最坏的恰当整合错误的分析中。 我们引入了相关数字, 这是可能最小的 $\ gamma 值, 以确保 美元负依赖性依赖性。 我们证明基于拉丁超立方采样或$( t,m,d) 美元- net 的随机变量, 一般来说, 它们并不具有1美元的相关数字, 即不依赖负值或太过。 但众所周知, 仅基于拉丁超立方值的超立方值( $) 的随机变量, 结果导致美元和美元正值( 美元) 的正值( 美元) 折值( 美元) 。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
H-Nets:让CNN的旋转等变性更加稳定
论智
12+阅读 · 2018年4月18日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Deep Learning for Energy Markets
Arxiv
10+阅读 · 2019年4月10日
Arxiv
6+阅读 · 2018年11月29日
Arxiv
5+阅读 · 2018年1月30日
Arxiv
3+阅读 · 2014年10月9日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
深度卷积神经网络中的降采样
极市平台
12+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
H-Nets:让CNN的旋转等变性更加稳定
论智
12+阅读 · 2018年4月18日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员