The acquisition cost for large, annotated motion datasets remains a critical bottleneck for skeletal-based Human Activity Recognition (HAR). Although Text-to-Motion (T2M) generative models offer a compelling, scalable source of synthetic data, their training objectives, which emphasize general artistic motion, and dataset structures fundamentally differ from HAR's requirements for kinematically precise, class-discriminative actions. This disparity creates a significant domain gap, making generalist T2M models ill-equipped for generating motions suitable for HAR classifiers. To address this challenge, we propose KineMIC (Kinetic Mining In Context), a transfer learning framework for few-shot action synthesis. KineMIC adapts a T2M diffusion model to an HAR domain by hypothesizing that semantic correspondences in the text encoding space can provide soft supervision for kinematic distillation. We operationalize this via a kinetic mining strategy that leverages CLIP text embeddings to establish correspondences between sparse HAR labels and T2M source data. This process guides fine-tuning, transforming the generalist T2M backbone into a specialized few-shot Action-to-Motion generator. We validate KineMIC using HumanML3D as the source T2M dataset and a subset of NTU RGB+D 120 as the target HAR domain, randomly selecting just 10 samples per action class. Our approach generates significantly more coherent motions, providing a robust data augmentation source that delivers a +23.1% accuracy points improvement. Animated illustrations and supplementary materials are available at (https://lucazzola.github.io/publications/kinemic).


翻译:大规模标注运动数据集的获取成本仍是基于骨骼的人体活动识别(HAR)的关键瓶颈。尽管文本到运动(T2M)生成模型为合成数据提供了一个引人注目且可扩展的来源,但其训练目标(强调通用艺术性运动)和数据集结构与HAR对运动学精确、类间区分性动作的需求存在根本差异。这种差异造成了显著的领域鸿沟,使得通用型T2M模型难以生成适用于HAR分类器的动作。为应对这一挑战,我们提出了KineMIC(情境中的动力学挖掘),一种用于少样本动作合成的迁移学习框架。KineMIC通过假设文本编码空间中的语义对应关系可为运动学蒸馏提供软监督,将T2M扩散模型适配到HAR领域。我们通过一种动力学挖掘策略实现这一目标,该策略利用CLIP文本嵌入建立稀疏HAR标签与T2M源数据之间的对应关系。这一过程指导微调,将通用型T2M主干网络转变为专门的少样本动作到运动生成器。我们使用HumanML3D作为源T2M数据集,NTU RGB+D 120的子集作为目标HAR领域验证KineMIC,每个动作类别仅随机选取10个样本。我们的方法生成了显著更连贯的运动,提供了稳健的数据增强来源,实现了+23.1%准确率点的提升。动画演示和补充材料可在(https://lucazzola.github.io/publications/kinemic)获取。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年6月19日
专知会员服务
112+阅读 · 2020年6月26日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员