11节麻省理工学院的通用人工智能课程大放送

2018 年 2 月 6 日 全球人工智能
11节麻省理工学院的通用人工智能课程大放送

讲师阵容超豪华:谷歌技术总监Kurzweil、特斯拉AI总监Andrej Karpathy、波士顿动力CEO Marc Raibert、OpenAI的联合创始人Ilya Sutskever等。课程将介绍以下内容:目前学界对计算智能的理解;以及从深度学习、强化学习、计算神经科学、机器人学、认知建模、心理学等学科中获得见解以达到强人工智能的方法。


第一讲:《通用人工智能》

讲师:Lex Fridman

Lex Fridman是麻省理工学院的博士后,致力于在半自主车辆、驾驶员状态感知、场景感知、运动控制和规划方面的深度学习。

讲义:http://bit.ly/2nAQLsK

视频:https://www.youtube.com/watch?v=-GV_A9Js2nM&feature=youtu.be



讲座1: 《计算认识科学》

讲师:Josh Tenenbaum

Josh Tenenbaum是麻省理工学院脑和认知科学系教授。


讲座2: 《如何创造一个大脑》

讲师:Ray Kurzweil

Ray Kurzweil是谷歌技术总监。


讲座3: 《情绪创造》

讲师:Lisa Feldman Barrett

Lisa Feldman Barrett是美国东北大学心理学教授,曾因对大脑情绪的开创性研究获奖。


讲座4: 《认知建模》

讲师:Nate Derbinsky

Nate Derbinsky是美国东北大学副教授,研究兴趣包括人工智能,优化,机器学习和数据库系统。



讲座5: 《深度学习》

讲师:Andrej Karpathy

Andrej Karpathy是特斯拉人工智能总监。


讲座6: 《基于知识的编程》

讲师:Stephen Wolfram

Stephen Wolfram是Mathematica,Wolfram | Alpha和Wolfram语言的创建者,也是Wolfram Research的创始人兼首席执行官。


讲座7: 《人工智能安全性和自主武器系统》

讲师:Richard Moyes

Richard Moyes是NGO Article 36的共同创始人。他是制定“2017年禁止核武器条约”的首席战略家。他对DeepMind潜在风险进行研究和分析。


讲座8: 《机器人学》

讲师:Marc Raibert

Marc Raibert是波士顿动力的CEO。


嘉宾讲座9: 《深度强化学习》

讲师:Ilya Sutskever

Ilya Sutskever是OpenAI的联合创始人。


第二讲:《以人为本的人工智能》

讲师:Lex Fridman

讲义:http://bit.ly/2EiL0t8

如果你对这门课程感兴趣,可以:在网站上注册一个帐户以获取最新信息。(https://agi.mit.edu/register/)课程材料免费向公众开放。如果您是麻省理工学院的学生,想要获得学分,请在此注册。(http://web.mit.edu/registrar/reg/prereg_info_iap.html)

或点击“阅读原文”,查看详情

登录查看更多
6

相关内容

本文为大家带来了一份斯坦福大学的最新课程CS234——强化学习,主讲人是斯坦福大学Emma Brunskill,她是斯坦福大学计算机科学助理教授,任职斯坦福大学人类影响力实验室、斯坦福人工智能实验室以及统计机器学习小组,主要研究强化学习。要实现人工智能的梦想和影响,需要能够学会做出正确决策的自主系统。强化学习是这样做的一个强有力的范例,它与大量的任务相关,包括机器人、游戏、消费者建模和医疗保健。本课程通过讲课、书面作业和编码作业的结合,学生将精通强化学习的关键思想和技术。

1.课程介绍(Description)

要实现人工智能的梦想和影响,需要能够学会做出正确决策的自主系统。强化学习是这样做的一个强有力的范例,它与大量的任务相关,包括机器人、游戏、消费者建模和医疗保健。本课程将为强化学习领域提供扎实的介绍,学生将学习包括通用化和探索在内的核心挑战和方法。通过讲课、书面作业和编码作业的结合,学生将精通强化学习的关键思想和技术。作业将包括强化学习和深度强化学习的基础,这是一个极有前途的新领域,将深度学习技术与强化学习相结合。此外,学生将通过期末专题来增进对强化学习领域的理解。

课程地址:

https://web.stanford.edu/class/cs234/schedule.html

2.预备知识(Prerequisites)

1)熟练Python

所有的课程都将使用Python(使用numpy和Tensorflow,也可以使用Keras)。这里有一个针对那些不太熟悉Python的人的教程。如果你有很多使用不同语言(如C/ c++ / Matlab/ Javascript)的编程经验,可能会很好。

2)大学微积分,线性代数(如 MATH 51, CME 100)

你应该能够熟练地进行(多变量)求导,理解矩阵/向量符号和运算。

3)基本概率及统计(例如CS 109 或同等课程)

你应该了解基本的概率,高斯分布,均值,标准差等。

4)机器学习基础

我们将阐述成本函数,求导数,用梯度下降法进行优化。CS 221或CS 229均可涵盖此背景。使用一些凸优化知识,一些优化技巧将更加直观。

3.主讲:Emma Brunskill

Emma Brunskill是斯坦福大学计算机科学助理教授,任职斯坦福大学人类影响力实验室、斯坦福人工智能实验室以及统计机器学习小组。

主要研究强化学习系统,以帮助人们更好地生活。并处理一些关键技术。最近的研究重点包括:1)有效强化学习的基础。一个关键的挑战是要了解代理商如何平衡勘探与开发之间的局限性。2)如果要进行顺序决策,该怎么办。利用巨大数量的数据来改善在医疗保健,教育,维护和许多其他应用程序中做出的决策,这是一个巨大的机会。这样做需要假设/反事实推理,以便在做出不同决定时对潜在结果进行推理。3)人在回路系统。人工智能具有极大地扩大人类智能和效率的潜力。我们正在开发一个系统,用其他众包商(CHI 2016)生产的(机器)固化材料对众包商进行训练,并确定何时扩展系统规格以包括新内容(AAAI 2017)或传感器。我们也有兴趣研究确保机器学习系统在人类用户的意图方面表现良好(Arxiv 2017),也被称为安全和公平的机器学习。

个人主页:https://cs.stanford.edu/people/ebrun/

4.课程安排

01: 强化学习导论(Introduction to Reinforcement Learning)

02: 表格MDP规划(Tabular MDP planning)

03: 表格RL政策评估(Tabular RL policy evaluation)

04: Q-learning

05: 带函数逼近的强化学习(RL with function approximation)

06: 带函数逼近的强化学习(RL with function approximation)

07: 带函数逼近的强化学习(RL with function approximation)

08: 从马尔可夫决策过程到强化学习(Policy search)

09: 从马尔可夫决策过程到强化学习(Policy search)

10: 课堂中期(In-class Midterm)

11: 模仿学习/探索(Imitation learning/Exploration)

12: 探索/开发(Exploration/Exploitation)

13: 探索/开发(Exploration/Exploitation)

14: 批处理强化学习(Batch Reinforcement Learning)

15: 嘉宾讲座:Craig Boutilier(Guest Lecture: Craig Boutilier)

16: 课堂测验(In-class Quiz)

17: 蒙特卡洛树搜索算法(Monte Carlo Tree Search)

18: 墙报展示(Poster presentations)

成为VIP会员查看完整内容
0
61

课程介绍

麻省理工学院深度学习和自动驾驶课程,介绍了深度学习的相关知识,以及深度学习在自动驾驶领域的实践和应用。

面向人群

课程主要面向机器学习初学者,也同样适用于深度学习、自动驾驶领域的高级研究人员,能够帮助学习者了解深度学习在自动驾驶中的应用。

课程大纲

  • 第一讲 - 深度学习
  • 第二讲 - 自动驾驶
  • 第三讲 - 深度增强学习
  • 第四讲 - 计算机视觉
  • 第五讲 - 能够感知人类的深度学习
  • 客邀讲座 - 自动驾驶机器学习的兴起
  • 客邀讲座 - 深度学习在自动驾驶领域的应用
  • 客邀讲座 - 深度学习在自动驾驶领域的应用

课程链接:https://selfdrivingcars.mit.edu/

中文字幕:http://www.mooc.ai/course/483

成为VIP会员查看完整内容
0
31
小贴士
相关论文
Mingzhen Li,Yi Liu,Xiaoyan Liu,Qingxiao Sun,Xin You,Hailong Yang,Zhongzhi Luan,Depei Qian
9+阅读 · 2020年2月6日
Logically-Constrained Reinforcement Learning
Mohammadhosein Hasanbeig,Alessandro Abate,Daniel Kroening
3+阅读 · 2018年12月6日
Siyu He,Yin Li,Yu Feng,Shirley Ho,Siamak Ravanbakhsh,Wei Chen,Barnabás Póczos
3+阅读 · 2018年11月15日
Generalizing Across Multi-Objective Reward Functions in Deep Reinforcement Learning
Eli Friedman,Fred Fontaine
5+阅读 · 2018年9月17日
Karol Kurach,Mario Lucic,Xiaohua Zhai,Marcin Michalski,Sylvain Gelly
3+阅读 · 2018年7月12日
Luke Vilnis,Xiang Li,Shikhar Murty,Andrew McCallum
5+阅读 · 2018年5月17日
Parth Shah,Vishvajit Bakarola,Supriya Pati
20+阅读 · 2018年1月17日
Kriste Krstovski,Michael J. Kurtz,David A. Smith,Alberto Accomazzi
3+阅读 · 2017年12月18日
Top