Continual learning (CL) has been a critical topic in contemporary deep neural network applications, where higher levels of both forward and backward transfer are desirable for an effective CL performance. Existing CL strategies primarily focus on task models, either by regularizing model updates or by separating task-specific and shared components, while often overlooking the potential of leveraging inter-task relationships to enhance transfer. To address this gap, we propose a transferability-aware task embedding, termed H-embedding, and construct a hypernet framework under its guidance to learn task-conditioned model weights for CL tasks. Specifically, H-embedding is derived from an information theoretic measure of transferability and is designed to be online and easy to compute. Our method is also characterized by notable practicality, requiring only the storage of a low-dimensional task embedding per task and supporting efficient end-to-end training. Extensive evaluations on benchmarks including CIFAR-100, ImageNet-R, and DomainNet show that our framework performs prominently compared to various baseline and SOTA approaches, demonstrating strong potential in capturing and utilizing intrinsic task relationships. Our code is publicly available at https://github.com/viki760/H-embedding-Guided-Hypernet.


翻译:持续学习(CL)已成为当代深度神经网络应用中的关键议题,其中更高水平的前向与后向迁移对于有效的CL性能至关重要。现有的CL策略主要聚焦于任务模型,或通过正则化模型更新,或通过分离任务特定与共享组件,却往往忽视了利用任务间关系以增强迁移的潜力。为填补这一空白,我们提出一种可迁移性感知的任务嵌入,称为H-嵌入,并在其指导下构建超网络框架,以学习CL任务中任务条件化的模型权重。具体而言,H-嵌入源自信息论中的可迁移性度量,其设计支持在线计算且易于实现。我们的方法还具有显著的实用性,仅需为每个任务存储一个低维任务嵌入,并支持高效的端到端训练。在包括CIFAR-100、ImageNet-R和DomainNet在内的基准测试上的广泛评估表明,与多种基线及SOTA方法相比,我们的框架表现突出,展现了在捕捉与利用内在任务关系方面的强大潜力。我们的代码已公开于https://github.com/viki760/H-embedding-Guided-Hypernet。

0
下载
关闭预览

相关内容

AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员