In this note we reconsider two known algorithms which both usually converge faster than the randomized Kaczmarz method introduced by Strohmer and Vershynin(2009), but require the additional computation of all residuals of an iteration at each step. As already indicated in the literature, e.g. arXiv:2007.02910 and arXiv:2011.14693, it is shown that the non-randomized version of the two algorithms converges at least as fast as the randomized version, while still requiring computation of all residuals. Based on that observation, a new simple random sample selection scheme has been introduced by arXiv:2011.14693 to reduce the required total of residuals. In the same light we propose an alternative random selection scheme which can easily be included as a `partially weighted selection step' into the classical randomized Kaczmarz algorithm without much ado. Numerical examples show that the randomly determined number of required residuals can be quite moderate.


翻译:在本说明中,我们重新考虑了两种已知的算法,这两种算法通常比Strohmer和Vershynin(2009年)采用的随机卡兹马尔兹法更快地趋同,但要求每步都对迭代的所有残留物进行额外的计算。正如文献中已经指出的那样,例如ArXiv:2007.02910和arXiv:2011.14693, 这表明两种算法的非随机化版本至少与随机化版本一样快,但仍然需要对所有残留物进行计算。基于这一观察,ArXiv:2011.14693采用了一个新的简单随机抽样选择方案,以减少所需的残留物总数。同样,我们提出了一种替代随机选择方案,可以很容易地作为“部分加权选择步骤”纳入经典随机化的卡兹马兹算法,而不必太多。数字实例表明随机确定的必要残留物数量可以相当适度。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月13日
专知会员服务
50+阅读 · 2020年12月14日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
105+阅读 · 2020年5月3日
【普林斯顿大学-微软】加权元学习,Weighted Meta-Learning
专知会员服务
39+阅读 · 2020年3月25日
专知会员服务
61+阅读 · 2020年3月4日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年9月2日
Arxiv
0+阅读 · 2021年9月1日
Arxiv
0+阅读 · 2021年8月31日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
3+阅读 · 2018年11月11日
VIP会员
相关VIP内容
专知会员服务
25+阅读 · 2021年4月13日
专知会员服务
50+阅读 · 2020年12月14日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
105+阅读 · 2020年5月3日
【普林斯顿大学-微软】加权元学习,Weighted Meta-Learning
专知会员服务
39+阅读 · 2020年3月25日
专知会员服务
61+阅读 · 2020年3月4日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
分布式并行架构Ray介绍
CreateAMind
9+阅读 · 2019年8月9日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Top
微信扫码咨询专知VIP会员