In this paper, we focus on the high-dimensional double sparse structure, where the parameter of interest simultaneously encourages group-wise sparsity and element-wise sparsity in each group. Combining Gilbert-Varshamov bound and its variants, we develop a novel lower bound technique for the metric entropy of the parameter space, which is well suited for the double sparse structure over $\ell_q$-balls for $q \in [0,1]$. We prove the lower bounds on estimation error in an information theoretical manner, which is based on our proposed lower bound technique and Fano's inequality. The matching upper bounds are also established, whose proof follows from a direct analysis of the constrained least-squares estimators and results on empirical processes. Moreover, we extend the results over $\ell_q$-balls into the double sparse regression model and establish its minimax rate on the estimation error. Finally, we develop the DSIHT (Double Sparse Iterative Hard Thresholding) algorithm and show its optimality in the minimax sense for solving the double sparse linear regression.
翻译:在本文中,我们侧重于高维双稀结构, 利息参数同时鼓励每个组群的群度宽度和元素宽度。 将 Gilbert- Varshamov 约束的和它的变体结合起来, 我们开发了一种新型的低约束技术, 用于参数空间的公吨星体, 这个技术非常适合 $_ q$ 美元 美元 美元 美元 美元 美元 美元 美元 的双维结构 。 我们以信息理论方式证明估算错误的下限, 以我们提议的较低约束技术和法诺的不平等为基础。 匹配的上界也已经建立, 其证据来自对受限制的最低方估计值的直接分析以及实验过程的结果。 此外, 我们把结果超过$ ell_ q$ 美元 美元 球推广到双稀薄回归模型中, 并在估计错误上建立其微负轴率率。 最后, 我们开发了 DSIHT (Double Splain Exterive Hard Tress Stold) 算法, 并展示其最优化的微缩缩缩缩图 。