最近,从部分标注数据学习多个密集场景理解任务的实际问题越来越受到关注,其中每个训练样本只为任务子集标注了标签。在训练中缺失任务标签会导致低质量和噪声预测,这一点可以从最新方法中观察到。为了解决这个问题,我们将部分标注的多任务密集预测重新表述为像素级去噪问题,并提出了一种新颖的多任务去噪扩散框架,命名为DiffusionMTL。它设计了一个联合扩散和去噪范式来模拟任务预测或特征图中潜在的噪声分布,并为不同的任务生成校正输出。为了在去噪中利用多任务一致性,我们进一步引入了一种多任务条件策略,该策略可以隐式地利用任务的互补性质来帮助学习未标注的任务,从而提高不同任务的去噪性能。大量的定量和定性实验表明,所提出的多任务去噪扩散模型能显著改善多任务预测图,并在三个具有挑战性的多任务基准测试中,在两种不同的部分标注评估设置下超越最新方法。代码可在 https://prismformore.github.io/diffusionmtl 获取。

成为VIP会员查看完整内容
32

相关内容

【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
29+阅读 · 2023年10月17日
【ICML2023】基于最优多任务插值的多模态基础模型迁移
专知会员服务
29+阅读 · 2023年4月29日
【CVPR2023】基于文本驱动软掩码的多模态表示学习
专知会员服务
20+阅读 · 2023年4月10日
【ICML2022】DRIBO:基于多视图信息瓶颈的鲁棒深度强化学习
专知会员服务
11+阅读 · 2021年7月16日
【WWW2021】基于图层次相关性匹配信号的Ad-hoc 检索
专知会员服务
13+阅读 · 2021年2月25日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【ICML2021】因果匹配领域泛化
专知
10+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
16+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
15+阅读 · 2020年6月26日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
322+阅读 · 2023年3月31日
Arxiv
14+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员