Learning robust manipulation policies typically requires large and diverse datasets, the collection of which is time-consuming, labor-intensive, and often impractical for dynamic environments. In this work, we introduce DynaMimicGen (D-MG), a scalable dataset generation framework that enables policy training from minimal human supervision while uniquely supporting dynamic task settings. Given only a few human demonstrations, D-MG first segments the demonstrations into meaningful sub-tasks, then leverages Dynamic Movement Primitives (DMPs) to adapt and generalize the demonstrated behaviors to novel and dynamically changing environments. Improving prior methods that rely on static assumptions or simplistic trajectory interpolation, D-MG produces smooth, realistic, and task-consistent Cartesian trajectories that adapt in real time to changes in object poses, robot states, or scene geometry during task execution. Our method supports different scenarios - including scene layouts, object instances, and robot configurations - making it suitable for both static and highly dynamic manipulation tasks. We show that robot agents trained via imitation learning on D-MG-generated data achieve strong performance across long-horizon and contact-rich benchmarks, including tasks like cube stacking and placing mugs in drawers, even under unpredictable environment changes. By eliminating the need for extensive human demonstrations and enabling generalization in dynamic settings, D-MG offers a powerful and efficient alternative to manual data collection, paving the way toward scalable, autonomous robot learning.


翻译:学习鲁棒的操控策略通常需要大规模且多样化的数据集,而此类数据集的收集过程耗时费力,且在动态环境中往往不切实际。本文提出 DynaMimicGen(D-MG),一种可扩展的数据集生成框架,该框架能够通过最少的人类监督进行策略训练,并独特地支持动态任务场景。仅需少量人类演示,D-MG 首先将演示分割为有意义的子任务,随后利用动态运动基元(DMPs)对演示行为进行适配与泛化,使其适用于新颖且动态变化的环境。相较于依赖静态假设或简单轨迹插值的现有方法,D-MG 能够生成平滑、逼真且符合任务一致性的笛卡尔轨迹,这些轨迹可在任务执行过程中实时适应物体位姿、机器人状态或场景几何结构的变化。本方法支持不同场景——包括场景布局、物体实例与机器人配置——使其适用于静态及高度动态的操控任务。我们通过模仿学习在 D-MG 生成的数据上训练的机器人智能体,在长时程、高接触的基准测试中(如积木堆叠与将杯子放入抽屉等任务)表现出色,即使在不可预测的环境变化下亦能保持稳定性能。通过消除对大量人类演示的依赖并实现动态场景下的泛化能力,D-MG 为人工数据收集提供了一种强大而高效的替代方案,为可扩展的自主机器人学习铺平了道路。

0
下载
关闭预览

相关内容

图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员