活动 | 中国自动化学会「深度与宽度强化学习」智能自动化学科前沿讲习班

2018 年 6 月 14 日 AI科技评论

中国自动化学会围绕「深度与宽度强化学习」这一主题,在中科院自动化所成功举办第 5 期智能自动化学科前沿讲习班。

AI 科技评论按:2018 年 5 月 31 日-6 月 1 日,中国自动化学会在中国科学院自动化研究所成功举办第 5 期智能自动化学科前沿讲习班,主题为「深度与宽度强化学习」。

如何赋予机器自主学习的能力,一直是人工智能领域的研究热点。在越来越多的复杂现实场景任务中,需要利用深度学习、宽度学习来自动学习大规模输入数据的抽象表征,并以此表征为依据进行自我激励的强化学习,优化解决问题的策略。深度与宽度强化学习技术在游戏、机器人控制、参数优化、机器视觉等领域中的成功应用,使其被认为是迈向通用人工智能的重要途径。

本期讲习班邀请有澳门大学讲座教授,中国自动化学会副理事长陈俊龙,清华大学教授宋士吉,北京交通大学教授侯忠生,国防科技大学教授徐昕,中国中车首席专家杨颖,中科院研究员赵冬斌,清华大学教授季向阳,西安交通大学教授陈霸东,浙江大学教授刘勇,清华大学副教授游科友等十位学者就深度与宽度强化学习技术在游戏、机器人控制、参数优化、机器视觉等领域中的成功应用进行报告。

AI科技评论在本文中将对 31 日陈俊龙、宋士吉、侯忠生、季向阳、陈霸东的 5 场精彩报告进行介绍。6 月 1 日的精彩报告见下篇文章。

陈俊龙:从深度强化学习到宽度强化学习:结构,算法,机遇及挑战

陈俊龙是澳门大学讲座教授,中国自动化学会副理事长,国家千人学者,IEEE Fellow、AAAS Fellow、IAPR Fellow。

本报告讨论强化学习的结构及理论,包括马尔科夫决策过程、强化学习的数学表达式、策略的构建、估计及预测未来的回报。还讨论如何用深度神经网络学习来稳定学习过程及特征提取、如何利用宽度学习结构跟强化学习结合。最后讨论深度、宽度强化学习带来的机遇与挑战。

陈俊龙教授提出的宽度学习系统(Broad Learning System,BLS)是基于将映射特征作为 RVFLNN 输入的思想设计的。此外,BLS 可以在新加入的数据以有效和高效的方式更新系统(输入的增量学习)。BLS 的设计思路为:首先,利用输入数据映射的特征作为网络的「特征节点」。其次,映射的特征被增强为随机生成权重的「增强节点」。最后,所有映射的特征和增强节点直接连接到输出端,对应的输出系数可以通过快递的 Pseudo 伪逆得出。

宽度强化学习相较于深度强化学习需要的训练时间更短,计算更快的同时准确度也高,并使用额外的节点来提高准确度,常规方法则是提高层数。

陈俊龙教授认为强化学习接下来还要面对安全性和有效性问题,过度拟合等一系列挑战。

宋士吉:基于强化学习的深海机器人智能搜索与运动控制方法

宋士吉是清华大学自动化系教授,博士生导师,国家 CIMS 工程技术研究中心研究员。

本报告阐述强化学习在深海机器人智能搜索与运动控制领域的算法研究及其应用,从热液羽状流智能搜索与深海机器人运动控制两个方面开展工作。在热液羽状流智能搜索方面,研究基于强化学习和递归网络的羽状流追踪算法。利用传感器采集到的流场与热液信号信息,将机器人搜索热液喷口的过程建模为状态行为域连续的马尔科夫决策过程,通过强化学习算法得到机器人艏向的最优控制策略。在深海机器人运动控制方面,研究基于强化学习的轨迹跟踪与最优深度控制算法。在机器人系统模型未知的情况下,将控制问题建模成连续状态动作空间的马尔可夫决策过程,并构建评价网络与策略网络,通过确定性策略和神经网络学习得到最优控制策略。

侯忠生:数据驱动的自适应学习控制

侯忠生是北京交通大学教授、博导,北京交通大学自动控制系主任。

本报告分为以下 6 个部分:第 1 部分主要介绍数据驱动学习,之所以提出数据驱动学习是为了应付模型未知的场景;第 2 部分主要介绍学习控制,该部分主要介绍了无模型自适应学习控制;第 3 部分主要介绍动态线性化方法,动态线性化特点在于它不依赖于模型,结构,顺序等;第 4 部分是数据驱动自适应控制在时间轴上的应用;第 5 部分数据驱动自适应控制在迭代轴上的应用。第 6 部分是结论,即基于模型的控制理论收到越来越大的挑战,数据驱动的的控制理论也许可以作为解决方案。

季向阳:强化学习及智能控制与决策

季向阳是清华大学教授,国家杰青,中国青年科技奖获得者。

本报告主要聚焦于强化学习在智能控制系统中的应用。强化学习(Reinforcement learning)是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益。其灵感来源于心理学中的行为主义理论,即有机体如何在环境给予的奖励或惩罚的刺激下,逐步形成对刺激的预期,产生能获得最大利益的习惯性行为。强化学习通常包括两个实体 agent 和 environment。两个实体的交互如下,在 environment 的 state st 下,agent 采取 action at 进而得到 reward rt 并进入 state st+1。

本报告主要介绍如何在智能控制与决策中使用强化学习方法。

陈霸东:核自适应滤波与宽度学习

陈霸东是西安交通大学教授、博导,陕西省「百人计划」特聘教授。

本报告主要聚焦于核自适应滤波与宽度学习相关内容,核自适应滤波器(Kernel Adaptive Filters)是近年来兴起的在可再生核希尔伯特空间(RKHS)中实现的一类非线性自适应滤波器,其拓扑结构为线性增长的单隐层神经元网络。其基本思想是:首先,将输入信号映射到高维核空间;然后,在核空间中推导线性滤波算法;最后,利用核技巧(Kernel Trick)得到原信号空间中非线性滤波算法。与传统非线性滤波器比较,核自适应滤波器具有以下优点:(a)如果选取严格正定的 Mercer 核函数,具有万能逼近能力;(b)性能曲面在高维核空间中具有凸性,因此理论上不具局部极值;(c)隐节点由数据驱动生成,减少了人工参与;(d)具有自正则性(Self-regularization),可有效防止过拟合。因此,核自适应滤波概念提出以后引起了国内外研究者广泛兴趣,越来越多的相关算法被提出,并被应用到诸多领域。核自适应滤波与最近兴起的宽度学习(Broad Learning)关系密切,可以认为是一类基于核方法的宽度学习算法。本报告将深入系统地阐述核自适应滤波的基本思想、主要算法、性能分析、典型应用,以及如何将其与宽度学习纳入统一框架。

陈俊龙、宋士吉、侯忠生、季向阳、陈霸东的 5 场精彩报告介绍如上,敬请期待 AI 科技评论的后续报道。

GAIR 大会在即,

AI 科技评论送福利了!

福利一

我们将会为高校学生提供若干张免费门票,只需填写「阅读原文」链接提交表单,就有机会获得价值 3999 元的CCF-GAIR 2018大会门票一张。

福利二

我们将从提交的所有学生申请内,筛选 20 位国内顶尖优秀学术青年,承包国内往返机票+四晚住宿!更有机会与CCF-GAIR 2018与会嘉宾共进小型内部聚餐,给你一个与大牛面对面交流的机会!

(PS:请在表单内填写准确的微信号,审核通过后工作人员将通过微信与您取得联系,发放门票)

赠票须知 

➤ 如无特别说明,赠送门票不包含餐饮,住宿等服务;

➤ 活动解释权归雷锋网AI 科技评论所有

➤ 截止日期:6月14日晚24:00

6 月 29 日至 7 月 1 日,深圳见!

登录查看更多
0

相关内容

陈俊龙,中国自动化学会副理事长、澳门科协副会长,华南理工大学计算机学院院长,电气电子工程师学会、美国科学促进会、国际模式识别协会、香港工程师学会会士,IEEE SCI期刊主编。主要研究领域为智能系统与控制、计算智能、混合智能、数据科学。 他是欧洲科学院和欧洲文理科学院院士,2018年获得世界IEEE系统人机及智能自动学会授予杰出贡献奖。他是国家特聘专家。澳门大学在工程及计算机学科双双进入世界排名前200名及同时荣获华盛顿协议和首尔协议是陈俊龙任澳门大学院长期间对澳门工程教育的至高贡献。
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
298+阅读 · 2020年6月16日
人机对抗智能技术
专知会员服务
202+阅读 · 2020年5月3日
 第八届中国科技大学《计算机图形学》暑期课程课件
专知会员服务
56+阅读 · 2020年3月4日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
172+阅读 · 2020年2月8日
预告 | CSIG图像图形学科前沿讲习班:图神经网络
【ASSIA】第12期智能自动化学科前沿讲习班——推荐系统
中国自动化学会
12+阅读 · 2019年10月11日
报名 | CSIG“图像视频理解”学科前沿讲习班
AI科技评论
4+阅读 · 2019年7月18日
【深度】GAN与平行视觉|王坤峰副研究员
中国科学院自动化研究所
8+阅读 · 2017年8月18日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Arxiv
19+阅读 · 2018年10月25日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
4+阅读 · 2018年9月12日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
11+阅读 · 2018年4月25日
Arxiv
5+阅读 · 2017年10月27日
VIP会员
相关论文
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Arxiv
19+阅读 · 2018年10月25日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Multi-task Deep Reinforcement Learning with PopArt
Arxiv
4+阅读 · 2018年9月12日
Arxiv
5+阅读 · 2018年6月12日
Arxiv
11+阅读 · 2018年4月25日
Arxiv
5+阅读 · 2017年10月27日
Top
微信扫码咨询专知VIP会员