We consider both $\ell_{0}$-penalized and $\ell_{0}$-constrained quantile regression estimators. For the $\ell_{0}$-penalized estimator, we derive an exponential inequality on the tail probability of excess quantile prediction risk and apply it to obtain non-asymptotic upper bounds on the mean-square parameter and regression function estimation errors. We also derive analogous results for the $\ell_{0}$-constrained estimator. The resulting rates of convergence are nearly minimax-optimal and the same as those for $\ell_{1}$-penalized estimators. Further, we characterize expected Hamming loss for the $\ell_{0}$-penalized estimator. We implement the proposed procedure via mixed integer linear programming and also a more scalable first-order approximation algorithm. We illustrate the finite-sample performance of our approach in Monte Carlo experiments and its usefulness in a real data application concerning conformal prediction of infant birth weights (with $n\approx 10^{3}$ and up to $p>10^{3}$). In sum, our $\ell_{0}$-based method produces a much sparser estimator than the $\ell_{1}$-penalized approach without compromising precision.


翻译:我们既考虑美元=0美元,也考虑美元=0美元; 美元=0美元; 美元=0美元; 美元=0美元; 美元=0美元; 美元=0美元; 美元=0美元; 美元=0美元; 美元=10美元; 美元=10美元; 美元=10美元=10美元=10美元=10美元=10美元=10美元=10美元=10美元=10美元=10美元=10美元=10=美元=10=10=10=美元=10=美元=10=10=10==10=====10==10==10===10==10===10==10=10==10==10=10===10==10=10=10===10=10=10===10==10=10==10=10=10=10=10==10=10=10==10=10=10=10=10=10==10=10=10=10=10=10=10=10==10=10=10=10=10=10=10=10=10=10=10=10=10=10==10=10=10=10=10=10=10=10=10=10=10=10=10=10=10=10=10=10=10=10====10=======10===10=10=10====10=10=10=10=10=10====10=10=10=10=10=10==0.===========================================================10====10=10=10=10=10==10====0.=0.=0.=0.======0.==0.=====0.=0.===0.=0.=0.====================0.=0.=0.=0.=0.=0.=

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
161+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2018年12月10日
Arxiv
0+阅读 · 2021年1月20日
Arxiv
0+阅读 · 2021年1月16日
Arxiv
0+阅读 · 2021年1月14日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
将门创投
4+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员