DAI2020 SMARTS 自动驾驶挑战赛(深度强化学习)

2020 年 8 月 15 日 深度强化学习实验室

深度强化学习实验室

作者: DeepRL

来源:华为诺亚方舟实验室



竞赛简介

自动驾驶是人工智能最重要的应用之一。从消除人为错误导致的交通事故到大幅减少停车占地,自动驾驶可以在很多方面改变我们的日常生活。随着深度强化学习(DRL)的兴起,相关技术在自动驾驶领域的应用得到了广泛关注。然而,自动驾驶领域的大型研究竞赛和基线标准侧重于感知和预测,而不是规划和决策。为了拓展自动驾驶的前沿研究,激发对驾驶中多智能体交互的关注,在今年的分布式人工智能大会(DAI 2020)上,华为诺亚方舟实验室和上海交通大学APEX数据与知识管理实验室联合举办自动驾驶挑战赛(DAI 2020 SMARTS Autonomous Driving Competition),旨在以自动驾驶中的交互难题,激励人工智能算法和模型创新,助力强化学习(RL)在自动驾驶领域的应用,提升自动驾驶的决策性能。


竞赛仿真平台


DAI自动驾驶挑战赛基于华为自研的SMARTS (Scalable Multi-agent Reinforcement Learning Training School) 自动驾驶仿真平台。SMARTS平台聚焦自动驾驶中的动态交互,提供了丰富的交通场景,有效支持多智能体强化学习(MARL),让MARL的研究更加贴近现实中的自动驾驶场景。

竞赛内容


竞赛官网:
https://www.drive-ml.com

参与者需要开发自动驾驶规划和控制解决方案,以应对SMARTS仿真平台提供的复杂交互式交通场景。比赛鼓励参赛者使用强化学习训练车辆,实现在多种地图和多样化交通流下的智能驾驶。与此同时,参赛者还需要考虑提升模型的泛化性和鲁棒性,以适应未知的测试场景。比赛分为单智能体和多智能体两个赛道。

【赛道1】

赛道 1参赛网址:

https://competitions.codalab.org/competitions/26007

赛道1是单智能体赛道,聚焦单智能体多车道巡航,参赛者需要训练模型控制一辆车完成复杂城市道路和车流下的智能驾驶。场景中包含直行道、路口、匝道、环岛等。车辆需要遵循预设的路线,在保证安全的前提下,尽可能快的从起点出发达到终点。

复杂城市道路示意图


【赛道2】
赛道 2参赛网址:
https://competitions.codalab.org/competitions/26013
赛道2是多智能体赛道,聚焦多车协同驾驶。参赛者提交的模型需要控制多辆车完成不同任务下的协同驾驶,包括匝道、路口、环岛等。车辆需要在保证安全的前提下,尽快达到各自的目标位置。


竞赛平台codalab将对参赛选手提交的驾驶模型进行自动评估。为减少评估误差,每个场景将以不同的随机种子运行多次。评估指标会综合考虑驾驶的安全性、行驶速度和行驶距离等。华为云服务器支撑竞赛平台对提交的模型进行性能评测。同时,华为云也为本次大赛提供了一定的计算资源用于参赛选手模型的训练。


竞赛日程


8月14日:比赛启动
8月14日—10月14日:参赛者提交模型,竞赛平台对模型进行评估
10月25日:每个赛道排名前5的参赛选手将获邀在 DAI 2020 上进行方案展示


最终排名综合竞赛平台自动评分、解决方案的技术优势和方案展示的质量共同决定。

 

竞赛奖励


针对每个赛道,主办方都提供了丰厚的奖金,并授予获奖证书。



竞赛委员会


组织委员会:
郝建业 (华为诺亚方舟实验室)
张伟楠 (上海交通大学)
汪军 (University College London, 华为诺亚方舟实验室)
罗军 (华为诺亚方舟实验室)
刘武龙 (华为诺亚方舟实验室)
张洪波 (华为诺亚方舟实验室)
陈奇 (华为智能汽车事业部)
邵坤 (华为诺亚方舟实验室)
周铭 (上海交通大学)
缪佳宇 (上海交通大学)
李丽 (华为诺亚方舟实验室)
杨耀东 (华为诺亚方舟实验室)
 
学术委员会:
邓小铁 (北京大学)
Matthew Taylor (University of Alberta)
Steve Waslander (University of Toronto)
高阳 (南京大学)
赵冬斌 (中科院自动化所)
安波 (南洋理工大学)
俞扬 (南京大学)
唐平中 (清华大学)
David Meger (McGill University)
张海峰 (中科院自动化所)


RLChina课程slide
【RLChina2020公开课课件】 Lecture-0/1.pdf
【RLChina2020公开课课件】 Lecture-2.pdf
【RLChina2020公开课课件】 Lecture-3.pdf
【RLChina2020公开课课件】 Lecture-4.pdf
【RLChina2020公开课课件】 Lecture-7.pdf
【RLChina2020公开课课件】Lecture-8.pdf
【RLChina2020公开课课件】 Lecture-9.pdf
【RLChina2020公开课课件】 Lecture-10.pdf
【RLChina2020公开课课件】Lecture-11.pdf


总结1:周志华 || AI领域如何做研究-写高水平论文

总结2:全网首发最全深度强化学习资料(永更)

总结3:  《强化学习导论》代码/习题答案大全

总结4:30+个必知的《人工智能》会议清单

总结52019年-57篇深度强化学习文章汇总

总结6:  万字总结 || 强化学习之路

总结7:万字总结 || 多智能体强化学习(MARL)大总结

总结8:经验 || 深度强化学习理论、模型及编码调参技巧


第74篇:【中文公益公开课】RLChina2020

第73篇:Tensorflow2.0实现29种深度强化学习算法

第72篇:【万字长文】解决强化学习"稀疏奖励"

第71篇:【公开课】高级强化学习专题

第70篇:DeepMind发布"离线强化学习基准“

第69篇:深度强化学习【Seaborn】绘图方法

第68篇:【DeepMind】多智能体学习231页PPT

第67篇:126篇ICML2020会议"强化学习"论文汇总

第66篇:分布式强化学习框架Acme,并行性加强

第65篇:DQN系列(3): 优先级经验回放(PER)

第64篇:UC Berkeley开源RAD来改进强化学习算法

第63篇:华为诺亚方舟招聘 || 强化学习研究实习生

第62篇:ICLR2020- 106篇深度强化学习顶会论文

第61篇:David Sliver 亲自讲解AlphaGo、Zero

第60篇:滴滴主办强化学习挑战赛:KDD Cup-2020

第59篇:Agent57在所有经典Atari 游戏中吊打人类

第58篇:清华开源「天授」强化学习平台

第57篇:Google发布"强化学习"框架"SEED RL"

第56篇:RL教父Sutton实现强人工智能算法的难易

第55篇:内推 ||  阿里2020年强化学习实习生招聘

第54篇:顶会 || 65篇"IJCAI"深度强化学习论文

第53篇:TRPO/PPO提出者John Schulman谈科研

第52篇:《强化学习》可复现性和稳健性,如何解决?

第51篇:强化学习和最优控制的《十个关键点》

第50篇:微软全球深度强化学习开源项目开放申请

第49篇:DeepMind发布强化学习库 RLax

第48篇:AlphaStar过程详解笔记

第47篇:Exploration-Exploitation难题解决方法

第46篇:DQN系列(2): Double DQN 算法

第45篇:DQN系列(1): Double Q-learning

第44篇:科研界最全工具汇总

第43篇:起死回生|| 如何rebuttal顶会学术论文?

第42篇:深度强化学习入门到精通资料综述

第41篇:顶会征稿 ||  ICAPS2020: DeepRL

第40篇:实习生招聘 || 华为诺亚方舟实验室

第39篇:滴滴实习生|| 深度强化学习方向

第38篇:AAAI-2020 || 52篇深度强化学习论文

第37篇:Call For Papers# IJCNN2020-DeepRL

第36篇:复现"深度强化学习"论文的经验之谈

第35篇:α-Rank算法之DeepMind及Huawei改进

第34篇:从Paper到Coding, DRL挑战34类游戏

第33篇:DeepMind-102页深度强化学习PPT

第32篇:腾讯AI Lab强化学习招聘(正式/实习)

第31篇:强化学习,路在何方?

第30篇:强化学习的三种范例

第29篇:框架ES-MAML:进化策略的元学习方法

第28篇:138页“策略优化”PPT--Pieter Abbeel

第27篇:迁移学习在强化学习中的应用及最新进展

第26篇:深入理解Hindsight Experience Replay

第25篇:10项【深度强化学习】赛事汇总

第24篇:DRL实验中到底需要多少个随机种子?

第23篇:142页"ICML会议"强化学习笔记

第22篇:通过深度强化学习实现通用量子控制

第21篇:《深度强化学习》面试题汇总

第20篇:《深度强化学习》招聘汇总(13家企业)

第19篇:解决反馈稀疏问题之HER原理与代码实现

第18篇:"DeepRacer" —顶级深度强化学习挑战赛

第17篇:AI Paper | 几个实用工具推荐

第16篇:AI领域:如何做优秀研究并写高水平论文?

第15篇: DeepMind开源三大新框架!
第14篇: 61篇NIPS2019DeepRL论文及部分解读
第13篇: OpenSpiel(28种DRL环境+24种DRL算法)
第12篇: 模块化和快速原型设计Huskarl DRL框架
第11篇: DRL在Unity自行车环境中配置与实践
第10篇: 解读72篇DeepMind深度强化学习论文
第9篇: 《AutoML》:一份自动化调参的指导
第8篇: ReinforceJS库(动态展示DP、TD、DQN)
第7篇: 10年NIPS顶会DRL论文(100多篇)汇总
第6篇: ICML2019-深度强化学习文章汇总
第5篇: 深度强化学习在阿里巴巴的技术演进
第4篇: 深度强化学习十大原则
第3篇: “超参数”自动化设置方法---DeepHyper
第2篇: 深度强化学习的加速方法
第1篇: 深入浅出解读"多巴胺(Dopamine)论文"、环境配置和实例分析


第14期论文:  2020-02-10(8篇)

第13期论文:2020-1-21(共7篇)

第12期论文:2020-1-10(Pieter Abbeel一篇,共6篇)

第11期论文:2019-12-19(3篇,一篇OpennAI)

第10期论文:2019-12-13(8篇)

第9期论文:2019-12-3(3篇)

第8期论文:2019-11-18(5篇)

第7期论文:2019-11-15(6篇)

第6期论文:2019-11-08(2篇)

第5期论文:2019-11-07(5篇,一篇DeepMind发表)

第4期论文:2019-11-05(4篇)

第3期论文:2019-11-04(6篇)

第2期论文:2019-11-03(3篇)

第1期论文:2019-11-02(5篇)


登录查看更多
15

相关内容

诺亚方舟实验室是华为公司设立在香港的实验室成立于2012年,主要从事人工智能学习——数据挖掘研究。
最新《智能交通系统的深度强化学习》综述论文,22页pdf
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
61+阅读 · 2020年2月17日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
169+阅读 · 2020年2月8日
深度学习技术在自动驾驶中的应用
智能交通技术
25+阅读 · 2019年10月27日
多轮对话阅读理解新突破,追一科技登顶CoQA榜单
2019 IROS—终生机器视觉数据集全球挑战赛
PaperWeekly
7+阅读 · 2019年9月6日
自动驾驶技术解读——自动驾驶汽车决策控制系统
智能交通技术
29+阅读 · 2019年7月7日
【观点】薛建儒:无人车的场景理解与自主运动
中国自动化学会
7+阅读 · 2018年1月24日
【智能驾驶】史上最全自动驾驶系统解析
产业智能官
22+阅读 · 2017年8月21日
Deep Reinforcement Learning: An Overview
Arxiv
17+阅读 · 2018年11月26日
VIP会员
相关VIP内容
最新《智能交通系统的深度强化学习》综述论文,22页pdf
MIT-深度学习Deep Learning State of the Art in 2020,87页ppt
专知会员服务
61+阅读 · 2020年2月17日
【综述】自动驾驶领域中的强化学习,附18页论文下载
专知会员服务
169+阅读 · 2020年2月8日
相关资讯
深度学习技术在自动驾驶中的应用
智能交通技术
25+阅读 · 2019年10月27日
多轮对话阅读理解新突破,追一科技登顶CoQA榜单
2019 IROS—终生机器视觉数据集全球挑战赛
PaperWeekly
7+阅读 · 2019年9月6日
自动驾驶技术解读——自动驾驶汽车决策控制系统
智能交通技术
29+阅读 · 2019年7月7日
【观点】薛建儒:无人车的场景理解与自主运动
中国自动化学会
7+阅读 · 2018年1月24日
【智能驾驶】史上最全自动驾驶系统解析
产业智能官
22+阅读 · 2017年8月21日
Top
微信扫码咨询专知VIP会员