The elastic net combines lasso and ridge regression to fuse the sparsity property of lasso with the grouping property of ridge regression. The connections between ridge regression and gradient descent and between lasso and forward stagewise regression have previously been shown. Here we combine gradient descent and forward stagewise regression into elastic gradient descent. We investigate the case of infinitesimal step size, obtaining a piecewise analytical solution, similar to the LARS algorithm. We also compare elastic gradient descent and the elastic net on real and simulated data, and show that they provide similar solution paths. Compared to the elastic net, elastic gradient descent is more robust with respect to penalization as to which parameters to include in the model. Elastic gradient descent also provides significantly better sensitivity and mean squared prediction error, without sacrificing specificity.
翻译:弹性网结合 lasso 和 ridge 回归 组合 使 lasso 的 宽度属性与 ridge 回归 的 组合 属性 结合 。 先前曾 显示 山脊 回归 和 梯度 下降 以及 lasso 和 前 阶段 回归 之间的联系 。 这里我们将 梯度 下降 和 前 阶段 回归 合并 成 弹性 梯度 下降 。 我们调查 无限 步骤 大小 的情况, 获得 与 LARS 算法 相似 的 片段分析 解决方案 。 我们还比较 实际 和 模拟 数据 的 弹性 梯度 下降 和 弹性 网, 并显示 它们提供了 类似 的 解决方案 。 与 弹性 网 相比, 弹性 梯度 梯度 梯度 下降 在 处罚 方面 更加 。 弹性 梯度 梯度 下降 也 提供了 显著 的 敏感 和 平均 方形 预测 错误,, 不牺牲 。