现代机器学习有两个明显的特点:它可以非常强大,也可以非常脆弱。前者不需要赘述。后者指的是现代机器学习算法的性能敏感地依赖于超参数的选择。这个演讲集中在机器学习的连续公式是“适定的”。我们将机器学习和相关的优化过程描述为表现良好的变分问题和类偏微分问题,并证明一些最流行的现代机器学习算法可以作为这些连续问题的离散化恢复。实验结果表明,该方法对不同的超参数选择具有更强的鲁棒性。我们还讨论了如何在这个框架下开发新的算法。