【导读】本文为大家带来了一份斯坦福大学的最新课程CS330——深度多任务和元学习,主讲人是斯坦福大学Chelsea Finn,她是斯坦福大学计算机科学与电气工程系的助理教授,元学习大牛。
她的博士论文——基于梯度的元学习(Learning to Learn with Gradients)很值得一读,该论文系统性地阐述了Meta Learning以及她提出的MAML的方法和相关改进。作者从Meta Learning问题出发,然后提出了MAML理论,再进行一系列基于该理论的应用尝试。
尽管深度学习在图像分类、语音识别和游戏等有监督和强化学习问题上取得了显著的成功,但这些模型在很大程度上是专门用于训练它们的单一任务的。本课程将涵盖需要解决多个任务的环境,并研究如何利用多个任务产生的结构来更有效地学习。
介绍
尽管深度学习在图像分类、语音识别和游戏等有监督和强化学习问题上取得了显著的成功,但这些模型在很大程度上是专门用于训练它们的单一任务的。本课程将涵盖需要解决多个任务的环境,并研究如何利用多个任务产生的结构来更有效地学习。
**这包括: ** 以目标为条件的强化学习技术,它利用所提供的目标空间的结构来快速地学习多个任务; 元学习方法旨在学习可以快速学习新任务的高效学习算法; 课程和终身学习,其中问题需要学习一系列任务,并利用它们的共享结构来实现知识转移。
这是一门研究生水平的课程。在课程结束时,学生将能够理解和实施最先进的多任务学习和元学习算法,并准备对这些主题进行研究。
课程链接: https://cs330.stanford.edu/
课程安排
课程安排
01: 课程介绍,问题定义,应用(Course introduction, problem definitions, applications) 02:有监督的多任务学习,黑盒元学习(Supervised multi-task learning, black-box meta-learning) 03:TensorFlow教程(TensorFlow tutorial) 04:基于优化的元学习(Optimization-based meta-learning) 05:通过度量学习进行少量学习(Few-shot learning via metric learning) 06:贝叶斯元学习(Bayesian meta-learning) 07:强化学习入门,多任务RL,目标条件RL(Renforcement learning primer, multi-task RL, goal-conditioned RL) 08:Meta-RL,学习探索(Meta-RL, learning to explore) 09:用于多任务学习的基于模型的RL,基于元模型的RL(Model-based RL for multi-task learning, meta model-based RL) 10:终身学习:问题陈述,前后迁移(Lifelong learning: problem statement, forward & backward transfer) 11:前沿: 记忆,无监督元学习,开放性问题(Frontiers: Memorization, unsupervised meta-learning, open problems)