我们提出了一种新算法,跨情境课程(CEC),以提高Transformer智能体的学习效率和泛化能力。CEC的核心是将跨情境的经验置入Transformer的上下文中,从而形成课程的基础。通过顺序地构建在线学习试验和混合质量的示范,CEC构建了封装学习进展和跨情境中的熟练度提高的课程。这种协同作用结合了Transformer模型的强大模式识别能力,从而提供了一个强大的跨情境关注机制。在两个代表性的场景下展示了CEC的有效性:一个涉及多任务强化学习与离散控制,如在DeepMind Lab中,课程捕捉到在个体和逐渐复杂的设置中的学习进展;另一个涉及模仿学习与混合质量的数据进行连续控制,如在RoboMimic中,课程捕捉到示范者专业知识的提高。在所有情况下,由CEC产生的策略都表现出卓越的性能和强大的泛化能力。为了促进Transformer智能体学习的研究,代码已在项目网站cec-agent.github.io上开源。

成为VIP会员查看完整内容
22

相关内容

【ICML2023】多任务分层对抗逆强化学习
专知会员服务
18+阅读 · 2023年5月25日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
35+阅读 · 2022年7月11日
【AAAI2022】混合课程学习对话情绪识别
专知会员服务
25+阅读 · 2021年12月24日
专知会员服务
14+阅读 · 2021年10月16日
专知会员服务
21+阅读 · 2021年5月27日
专知会员服务
18+阅读 · 2020年10月13日
ICLR'21 | GNN联邦学习的新基准
图与推荐
11+阅读 · 2021年11月15日
【ICML2020】对比多视角表示学习
专知
18+阅读 · 2020年6月28日
【NLP】万字长文概述NLP中的深度学习技术
产业智能官
18+阅读 · 2019年7月7日
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
VIP会员
相关VIP内容
【ICML2023】多任务分层对抗逆强化学习
专知会员服务
18+阅读 · 2023年5月25日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
35+阅读 · 2022年7月11日
【AAAI2022】混合课程学习对话情绪识别
专知会员服务
25+阅读 · 2021年12月24日
专知会员服务
14+阅读 · 2021年10月16日
专知会员服务
21+阅读 · 2021年5月27日
专知会员服务
18+阅读 · 2020年10月13日
相关基金
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员