In this paper, we propose Nesterov Accelerated Shuffling Gradient (NASG), a new algorithm for the convex finite-sum minimization problems. Our method integrates the traditional Nesterov's acceleration momentum with different shuffling sampling schemes. We show that our algorithm has an improved rate of $\mathcal{O}(1/T)$ using unified shuffling schemes, where $T$ is the number of epochs. This rate is better than that of any other shuffling gradient methods in convex regime. Our convergence analysis does not require an assumption on bounded domain or a bounded gradient condition. For randomized shuffling schemes, we improve the convergence bound further. When employing some initial condition, we show that our method converges faster near the small neighborhood of the solution. Numerical simulations demonstrate the efficiency of our algorithm.
翻译:在本文中,我们建议 Nesterov 加速打碎梯子(NASG), 这是一种新的算法, 解决混凝土的有限和最小化问题。 我们的方法将传统 Nesterov 的加速势头与不同的打乱抽样计划结合起来。 我们用统一的打乱计划来显示我们的算法的速率提高了$\mathcal{O}(1/T)$, 美元就是时代的数目。 这个速率比在混凝土制度中任何其他打碎梯子方法的速率要好。 我们的趋同分析并不要求假设受绑域或受绑定梯度条件。 对于随机打乱的计划, 我们改进了趋同。 在使用某些初始条件时, 我们显示我们的方法更快地接近解决方案的小区。 数字模拟显示了我们算法的效率 。