本教程将是关于无监督学习和强化学习的交叉。随着自然语言处理中基于语言模型的预训练和计算机视觉中的对比学习的出现,无监督学习(UL)在过去几年中真正得到了发展。在这些领域中,无监督预训练的一些主要优势是在下游有监督学习任务中出现的数据效率。在如何将这些技术应用于强化学习和机器人方面,社区中有很多人感兴趣。考虑到问题的连续决策性质,RL和机器人技术比被动地从互联网上的图像和文本中学习面临更大的挑战,它可能不会那么简单。本教程将涵盖如何在强化学习中应用和使用无监督学习的基本模块,希望人们可以带回最新的最先进的技术和实践的知识,以及在这个具有挑战性和有趣的交叉领域的广泛的未来可能性和研究方向。

https://icml.cc/Conferences/2021/Schedule

成为VIP会员查看完整内容
76

相关内容

现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
58+阅读 · 2021年8月8日
专知会员服务
18+阅读 · 2021年7月28日
专知会员服务
74+阅读 · 2021年7月21日
NeurIPS2020最新《深度对话人工智能》教程,130页ppt
专知会员服务
41+阅读 · 2020年12月10日
专知会员服务
313+阅读 · 2020年11月24日
【ICML2020】基于模型的强化学习方法教程,279页ppt
专知会员服务
127+阅读 · 2020年7月20日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
【资源】强化学习实践教程
专知
43+阅读 · 2019年9月11日
干货|浅谈强化学习的方法及学习路线
机器学习算法与Python学习
16+阅读 · 2018年3月28日
关于强化学习(附代码,练习和解答)
深度学习
36+阅读 · 2018年1月30日
Arxiv
0+阅读 · 2021年9月21日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Generalization and Regularization in DQN
Arxiv
6+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2018年10月5日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2021年9月7日
专知会员服务
58+阅读 · 2021年8月8日
专知会员服务
18+阅读 · 2021年7月28日
专知会员服务
74+阅读 · 2021年7月21日
NeurIPS2020最新《深度对话人工智能》教程,130页ppt
专知会员服务
41+阅读 · 2020年12月10日
专知会员服务
313+阅读 · 2020年11月24日
【ICML2020】基于模型的强化学习方法教程,279页ppt
专知会员服务
127+阅读 · 2020年7月20日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
179+阅读 · 2020年5月29日
微信扫码咨询专知VIP会员