多任务模仿学习 (MIL) 旨在基于多任务专家演示训练能够执行任务分布的策略,这对通用机器人至关重要。现有的 MIL 算法在复杂长水平任务上的数据效率低下且表现不佳。我们开发了多任务层次对抗逆强化学习 (MH-AIRL) 以学习层次结构化的多任务策略,这对于具有长视野的组合任务更有利,并且通过识别和跨任务传输可重复使用的基本技能,具有更高的专家数据效率。为实现这一目标,MH-AIRL 有效地综合了基于上下文的多任务学习、AIRL (一种 IL 方法) 和层次策略学习。此外,MH-AIRL 可以应用于没有任务或技能注释的演示 (即,只有状态动作对),这在实践中更易获取。MH-AIRL 的每个模块都提供了理论依据,而在挑战性的多任务设置上的评估证明,与 SOTA MIL 基线相比,MH-AIRL 学到的多任务策略具有优越的性能和可转移性。

成为VIP会员查看完整内容
21

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议。 2023年7月23日至29日周六在夏威夷会议中心举行。
【ICML2023】在受限逆强化学习中的可识别性和泛化能力
专知会员服务
25+阅读 · 2023年6月5日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
【ICML2022】通过评估演示者的专业知识进行模仿学习
专知会员服务
16+阅读 · 2022年7月18日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
36+阅读 · 2022年7月11日
【ICML2022】序列决策的效用理论
专知会员服务
15+阅读 · 2022年6月30日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
专知会员服务
23+阅读 · 2021年7月10日
专知会员服务
36+阅读 · 2021年5月29日
【论文】欺骗学习(Learning by Cheating)
专知会员服务
26+阅读 · 2020年1月3日
【ICML2022】时序自监督视频transformer
专知
1+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
IJCAI2022《对抗序列决策》教程,164页ppt
专知
4+阅读 · 2022年7月27日
【ICML2022】分支强化学习
专知
0+阅读 · 2022年7月23日
ICCV2019|基于全局类别表征的小样本学习
极市平台
11+阅读 · 2019年9月21日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
11+阅读 · 2023年3月8日
Arxiv
31+阅读 · 2023年1月8日
Arxiv
12+阅读 · 2019年3月14日
VIP会员
相关VIP内容
【ICML2023】在受限逆强化学习中的可识别性和泛化能力
专知会员服务
25+阅读 · 2023年6月5日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
【ICML2022】通过评估演示者的专业知识进行模仿学习
专知会员服务
16+阅读 · 2022年7月18日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
36+阅读 · 2022年7月11日
【ICML2022】序列决策的效用理论
专知会员服务
15+阅读 · 2022年6月30日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
专知会员服务
23+阅读 · 2021年7月10日
专知会员服务
36+阅读 · 2021年5月29日
【论文】欺骗学习(Learning by Cheating)
专知会员服务
26+阅读 · 2020年1月3日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员