The Information Bottleneck (IB) principle facilitates effective representation learning by preserving label-relevant information while compressing irrelevant information. However, its strong reliance on accurate labels makes it inherently vulnerable to label noise, prevalent in real-world scenarios, resulting in significant performance degradation and overfitting. To address this issue, we propose LaT-IB, a novel Label-Noise ResistanT Information Bottleneck method which introduces a "Minimal-Sufficient-Clean" (MSC) criterion. Instantiated as a mutual information regularizer to retain task-relevant information while discarding noise, MSC addresses standard IB's vulnerability to noisy label supervision. To achieve this, LaT-IB employs a noise-aware latent disentanglement that decomposes the latent representation into components aligned with to the clean label space and the noise space. Theoretically, we first derive mutual information bounds for each component of our objective including prediction, compression, and disentanglement, and moreover prove that optimizing it encourages representations invariant to input noise and separates clean and noisy label information. Furthermore, we design a three-phase training framework: Warmup, Knowledge Injection and Robust Training, to progressively guide the model toward noise-resistant representations. Extensive experiments demonstrate that LaT-IB achieves superior robustness and efficiency under label noise, significantly enhancing robustness and applicability in real-world scenarios with label noise.


翻译:信息瓶颈(IB)原理通过保留标签相关信息并压缩无关信息,促进了有效的表示学习。然而,其对准确标签的强依赖使其本质上容易受到现实场景中普遍存在的标签噪声的影响,导致显著的性能下降和过拟合。为解决此问题,我们提出LaT-IB,一种新颖的标签噪声抵抗信息瓶颈方法,引入了“最小充分清洁”(MSC)准则。MSC被实例化为互信息正则化器,以保留任务相关信息同时丢弃噪声,解决了标准IB对噪声标签监督的脆弱性。为实现这一目标,LaT-IB采用噪声感知的潜在解耦,将潜在表示分解为与清洁标签空间和噪声空间对齐的分量。理论上,我们首先推导了目标函数各分量的互信息界,包括预测、压缩和解耦,并进一步证明优化该目标能鼓励表示对输入噪声保持不变,并分离清洁和噪声标签信息。此外,我们设计了一个三阶段训练框架:预热、知识注入和鲁棒训练,以逐步引导模型获得噪声抵抗的表示。大量实验表明,LaT-IB在标签噪声下实现了卓越的鲁棒性和效率,显著增强了在现实标签噪声场景中的鲁棒性和适用性。

0
下载
关闭预览

相关内容

【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
22+阅读 · 2023年5月10日
【ECCV2022】对比视觉Transformer的在线持续学习
专知会员服务
23+阅读 · 2022年7月29日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员