在本论文中,我们专注于计算机视觉中的多任务学习。多任务学习的目标是同时训练多个相关但不同的任务,并在每个任务上取得良好表现,实现任务间的双向知识传递。我们旨在解决多任务学习中与偏差相关的现有挑战,例如数据不足、类别偏移和任务不平衡等问题。以往的多任务学习方法通常需要来自所有任务的广泛且完整的训练数据,容易导致过拟合和模型性能不佳等问题。论文围绕解决四个关键研究问题展开:

  1. 通过变分贝叶斯框架(Variational Bayesian Framework)VMTL,利用任务相关性以缓解数据不足
  2. 通过在情节训练设置中开发异质神经过程(Heterogeneous Neural Processes, HNPs),利用历史信息来解决数据不足问题。
  3. 通过关联图学习(Association Graph Learning, AGL)应对类别偏移,该方法促进不同任务和类别之间的知识传递,以维持模型的判别能力。
  4. 使用GO4Align来有效缓解任务不平衡,这是一种新颖的优化方法,采用群体风险最小化策略来对齐任务优化。 论文的每一章节都介绍了针对各类MTL偏差的创新方法,包括详细的方法论和实验结果,从而提出了一种全面提升MTL系统的方案。

人工智能(AI)和机器学习(ML)已经改变了许多行业。在医疗保健领域,AI和ML促进了诊断工具的增强 [105],帮助识别患者数据模式,并支持外科手术操作。在交通领域,配备AI和ML的自动驾驶车辆通过提高安全性和效率来改变出行方式 [2]。在金融领域,AI驱动的算法在防范欺诈、风险管理和优化投资策略中发挥关键作用 [75]。这些技术所带来的机会在各个领域提供了巨大的潜在收益,但需根据具体应用领域进行调整。 针对特定应用开发AI和ML技术面临诸多挑战,尤其是在数据处理方面。AI和ML技术通常假设训练和测试数据来自相同的环境,例如交通领域中的同一时间、天气和地理位置 [178]。然而,当这些技术遇到来自不同实验的数据时,模型通常会失效,因为其泛化能力不佳。实际操作中,由于环境间存在固有的分布差异,处理不同环境的数据并非易事。在机器学习中,有四个相关研究领域专门处理不同环境下的分布偏移问题:迁移学习 [146]、领域泛化 [248]、元学习 [80]和多任务学习 [240]。 为了解决分布偏移,知识迁移在机器学习中作为一种理想策略逐渐兴起 [146]。知识迁移首先从一个领域或模态中学习到有用的知识,然后将其应用到另一个不同但相关的领域。根据知识迁移的类型,我们将四个研究领域分为两个分支: 1. 第一分支是单向知识迁移,包括迁移学习、领域泛化和元学习。这三种研究方向从源任务到目标任务进行单向知识迁移。在传统迁移学习设置中,目标任务中的一些标注数据用于模型微调 [146, 248]。领域泛化 [248]利用单一或多个相关但不同的源领域数据训练模型,并将学习到的模型泛化到任何分布不同的领域。元学习则从已知的训练任务中学习元知识,并快速将其适应到未来的新任务。 1. 第二分支是双向知识迁移,即多任务学习。与单向方法不同,多任务学习在任务之间进行双向知识迁移,因为它将所有任务视为平等。为便于清晰直接的对比,我们在图1中展示了这些研究领域。本文的研究范围集中在多任务学习,其中一个领域或模态通常对应于一个单一任务。

1.2 多任务学习 多任务学习(MTL)的目标是通过挖掘任务间的共享知识来提升多个相关学习任务的整体性能。多任务学习相较于单任务学习的关键优势在于它能够在相关任务之间共享表示,这可以提高学习效率,并通过联合学习任务的正则化效果提升模型在单个任务上的性能 [27, 240]。多任务学习已在自然语言处理 [31, 120, 148]、计算机视觉 [88, 122, 195]和强化学习 [49, 171]等多个领域成功应用。我们的研究重点是计算机视觉中的多任务学习。

成为VIP会员查看完整内容
18

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【CMU博士论文】经典方法对现代机器学习的改进
专知会员服务
23+阅读 · 8月16日
【斯坦福博士论文】生成模型的视觉与行为
专知会员服务
31+阅读 · 7月11日
【博士论文】连接状态和行动:迈向持续强化学习
【牛津大学博士论文】抗规避攻击鲁棒学习的样本复杂度
论文浅尝 | 采用多层注意力机制的事件检测
开放知识图谱
23+阅读 · 2019年8月24日
【机器学习】深入剖析机器学习中的统计思想
产业智能官
14+阅读 · 2019年1月24日
论文浅尝 | 基于置信度的知识图谱表示学习框架
开放知识图谱
24+阅读 · 2018年2月27日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
66+阅读 · 2023年3月26日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
20+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员