We present the Reflectron, a family of pseudogradient methods for learning generalized linear models inspired by mirror descent. Despite nonconvexity of the underlying optimization problem, we prove that the Reflectron is both statistically and computationally efficient. By analogy to standard mirror descent, we show that the methods can be tailored to the $\textit{problem geometry}$ through choice of a potential function that defines the $\textit{optimization geometry}$. We provide guarantees in both the stochastic and full-batch settings, and our analysis recovers gradient descent and the GLM-tron of Kakade et al. (2011) as special cases. Via a natural continuous-time limit, we provide simple and intuitive derivations of the statistical, convergence, and implicit bias properties of the algorithms. We subsequently discretize the flow to arrive at an iteration with matching guarantees. Experimentally, the extra flexibility afforded by the Reflectron allows it to outperform the GLM-tron on sparse vector and low-rank matrix recovery problems.


翻译:我们展示了反射器,这是一个学习由反光下降启发的通用线性模型的假基因方法的组合。尽管潜在的优化问题不精确,但我们证明反射器在统计上和计算上都是有效的。比照标准反射下,我们通过选择一个定义$textit{problem 几何法的潜在功能,我们展示了这些方法能够适应$textit{problem physication}美元。我们为随机和完整组合设置提供了保障,我们的分析将梯度下降和Kakade et al. (2011年) GLM- Tron作为特例进行了恢复。我们通过自然的连续时间限制,我们提供了统计、趋同和算法隐含的偏差特性的简单和直观的衍生。我们随后将流动分解,以匹配的保证实现。实验性地,反射仪提供的超灵活度使其在稀有矢量矢量的矢量和低位矩阵恢复问题上超过GLM-tron。

0
下载
关闭预览

相关内容

【经典书】线性代数,Linear Algebra,525页pdf
专知会员服务
77+阅读 · 2021年1月29日
专知会员服务
50+阅读 · 2020年12月14日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
专知会员服务
161+阅读 · 2020年1月16日
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
57+阅读 · 2019年11月10日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
9+阅读 · 2018年3月28日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
【经典书】线性代数,Linear Algebra,525页pdf
专知会员服务
77+阅读 · 2021年1月29日
专知会员服务
50+阅读 · 2020年12月14日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
专知会员服务
161+阅读 · 2020年1月16日
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
57+阅读 · 2019年11月10日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员