We focus on decentralized stochastic non-convex optimization, where $n$ agents work together to optimize a composite objective function which is a sum of a smooth term and a non-smooth convex term. To solve this problem, we propose two single-time scale algorithms: Prox-DASA and Prox-DASA-GT. These algorithms can find $\epsilon$-stationary points in $\mathcal{O}(n^{-1}\epsilon^{-2})$ iterations using constant batch sizes (i.e., $\mathcal{O}(1)$). Unlike prior work, our algorithms achieve a comparable complexity result without requiring large batch sizes, more complex per-iteration operations (such as double loops), or stronger assumptions. Our theoretical findings are supported by extensive numerical experiments, which demonstrate the superiority of our algorithms over previous approaches.
翻译:我们的焦点是分散式的随机非convex优化, 在那里, 美元代理商一起工作, 优化混合目标功能, 这个功能是一个平滑的术语和一个非移动的 convex 术语的总和。 为了解决这个问题, 我们提议了两种单一规模的算法: Prox- DASA 和 Prox- DASA- GT。 这些算法可以在 $\ mathcal{O} (n ⁇ -1 ⁇ ⁇ - epsilon}-2} 中找到 $- 静止点, 使用固定的批量大小( $\ mathcal{ O}(1)$ ) 。 与以前的工作不同, 我们的算法在不要求大批量、 更复杂的一次电量操作( 如双圈 ) 或更强的假设的情况下取得了相似的复杂结果。 我们的理论结论得到大量的数字实验的支持, 这表明我们的算法优于以往的方法。