The widespread use of multi-sensor systems has increased research in multi-view action recognition. While existing approaches in multi-view setups with fully overlapping sensors benefit from consistent view coverage, partially overlapping settings where actions are visible in only a subset of views remain underexplored. This challenge becomes more severe in real-world scenarios, as many systems provide only limited input modalities and rely on sequence-level annotations instead of dense frame-level labels. In this study, we propose View-aware Cross-modal Knowledge Distillation (ViCoKD), a framework that distills knowledge from a fully supervised multi-modal teacher to a modality- and annotation-limited student. ViCoKD employs a cross-modal adapter with cross-modal attention, allowing the student to exploit multi-modal correlations while operating with incomplete modalities. Moreover, we propose a View-aware Consistency module to address view misalignment, where the same action may appear differently or only partially across viewpoints. It enforces prediction alignment when the action is co-visible across views, guided by human-detection masks and confidence-weighted Jensen-Shannon divergence between their predicted class distributions. Experiments on the real-world MultiSensor-Home dataset show that ViCoKD consistently outperforms competitive distillation methods across multiple backbones and environments, delivering significant gains and surpassing the teacher model under limited conditions.


翻译:多传感器系统的广泛应用促进了多视角动作识别的研究。现有方法在传感器完全重叠的多视角设置中受益于一致的视角覆盖,然而在动作仅部分可见于子视角的部分重叠设置中,相关研究仍显不足。这一挑战在现实场景中更为严峻,因为许多系统仅提供有限的输入模态,并依赖于序列级标注而非密集的帧级标签。本研究提出视角感知跨模态知识蒸馏框架,该框架将知识从全监督多模态教师模型蒸馏至模态和标注受限的学生模型。ViCoKD采用带有跨模态注意力机制的跨模态适配器,使学生模型能够在模态不完整的情况下利用多模态相关性。此外,我们提出视角感知一致性模块以解决视角错位问题——同一动作在不同视角下可能呈现差异或仅部分可见。该模块通过人体检测掩码和预测类别分布间的置信度加权Jensen-Shannon散度作为指导,在动作跨视角共可见时强制预测对齐。在真实世界MultiSensor-Home数据集上的实验表明,ViCoKD在多种骨干网络和环境设置中持续优于现有蒸馏方法,在受限条件下取得显著性能提升并超越教师模型。

0
下载
关闭预览

相关内容

【AAAI 2022】跨模态目标跟踪: 模态感知表示和统一基准
专知会员服务
44+阅读 · 2022年1月6日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员