A well-known result of Banaszczyk in discrepancy theory concerns the prefix discrepancy problem (also known as the signed series problem): given a sequence of $T$ unit vectors in $\mathbb{R}^d$, find $\pm$ signs for each of them such that the signed sum vector along any prefix has a small $\ell_\infty$-norm? This problem is central to proving upper bounds for the Steinitz problem, and the popular Koml\'os problem is a special case where one is only concerned with the final signed sum vector instead of all prefixes. Banaszczyk gave an $O(\sqrt{\log d+ \log T})$ bound for the prefix discrepancy problem. We investigate the tightness of Banaszczyk's bound and consider natural generalizations of prefix discrepancy: We first consider a smoothed analysis setting, where a small amount of additive noise perturbs the input vectors. We show an exponential improvement in $T$ compared to Banaszczyk's bound. Using a primal-dual approach and a careful chaining argument, we show that one can achieve a bound of $O(\sqrt{\log d+ \log\!\log T})$ with high probability in the smoothed setting. Moreover, this smoothed analysis bound is the best possible without further improvement on Banaszczyk's bound in the worst case. We also introduce a generalization of the prefix discrepancy problem where the discrepancy constraints correspond to paths on a DAG on $T$ vertices. We show that an analog of Banaszczyk's $O(\sqrt{\log d+ \log T})$ bound continues to hold in this setting for adversarially given unit vectors and that the $\sqrt{\log T}$ factor is unavoidable for DAGs. We also show that the dependence on $T$ cannot be improved significantly in the smoothed case for DAGs. We conclude by exploring a more general notion of vector balancing, which we call combinatorial vector balancing. We obtain near-optimal bounds in this setting, up to poly-logarithmic factors.


翻译:Banaszczyk 在差异理论中的一个众所周知的结果涉及到前端偏差问题( 也称为签名序列问题 ): 鉴于一个以$mathb{R ⁇ d$为单位向量的单位向量序列, 每个向量都能找到$\ pm美元的迹象, 这样在任何前缀中签名的向量在 $\ ell\\ infty$- norm? 这个问题对于证明Steinitz 问题的上界关系至关重要, 而流行的 Koml\'s 问题是一个特殊的例子, 当一个人只关心最终的签名和美元向量的向量, 而所有前端的向量向量的向量。 Banaszzczyk 向量的向量向量向量的向量向量向量向量向量的向量向量向量的向量, 以美元向量单位向量的向量向量向量的向量向量向量向量向量的向量向量向量向量向量的向量向量向量的向量向量向量向量, 我们显示比美元向量的向量向量的向量向量向量向量向量的向量向量向量的向量向量向量向量向量向量向量向量向量的向量向量向量的向量向量的向量向量向量向量向量的向量的向量的向量的向量向量向量的向量的向量向量向量向量的向量向量的向量的向量向量的向量的向量的向量向量向量向量向量的向量向量向量向量向量向量的向量的向量的向量的向量的向量的向量的向量的向, 。的向量向量的向量向量向量向量的向量向量向量向量向量向量向量的向量向量向量向量向量向量向量向量向量向量的向量的向量的向量的向量的向量的向量的向量向量向量向量的向量的向量的向量的向量的向量的向量的向

0
下载
关闭预览

相关内容

Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
3+阅读 · 2018年10月11日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2022年1月19日
Arxiv
0+阅读 · 2022年1月19日
Arxiv
0+阅读 · 2022年1月15日
Arxiv
0+阅读 · 2022年1月14日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
已删除
将门创投
3+阅读 · 2018年10月11日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员