We explore a data-driven approach for learning to optimize neural networks. We construct a dataset of neural network checkpoints and train a generative model on the parameters. In particular, our model is a conditional diffusion transformer that, given an initial input parameter vector and a prompted loss, error, or return, predicts the distribution over parameter updates that achieve the desired metric. At test time, it can optimize neural networks with unseen parameters for downstream tasks in just one update. We find that our approach successfully generates parameters for a wide range of loss prompts. Moreover, it can sample multimodal parameter solutions and has favorable scaling properties. We apply our method to different neural network architectures and tasks in supervised and reinforcement learning.
翻译:我们探索一种以数据为驱动的学习优化神经网络的方法。 我们构建了一个神经网络检查站的数据集, 并训练了有关参数的基因模型。 特别是, 我们的模型是一个有条件的传播变异器, 在初始输入参数矢量和引发的损耗、 误差或返回的情况下, 该变异器预测参数更新的分布, 从而达到理想的度量。 在测试时, 它可以在一次更新中优化具有下游任务隐性参数的神经网络。 我们发现, 我们的方法成功地为一系列广泛的损失提示生成了参数。 此外, 它可以对多式参数解决方案进行抽样, 并且具有有利的缩放性能。 我们将我们的方法应用于不同的神经网络结构以及监管和强化学习中的任务 。