基于meta-learning的方法在有噪声标注的图像分类中取得了显著的效果。这类方法往往需要大量的计算资源,而计算瓶颈在于meta-gradient的计算上。本文提出了一种高效的meta-learning更新方式:Faster Meta Update Strategy (FaMUS),加快了meta-learning的训练速度 (减少2/3的训练时间),并提升了模型的性能。首先,我们发现meta-gradient的计算可以转换成一个逐层计算并累计的形式; 并且,meta-learning的更新只需少量层数在meta-gradient就可以完成。基于此,我们设计了一个layer-wise gradient sampler 加在网络的每一层上。根据sampler的输出,模型可以在训练过程中自适应地判断是否计算并收集该层网络的梯度。越少层的meta-gradient需要计算,网络更新时所需的计算资源越少,从而提升模型的计算效率。

并且,我们发现FaMUS使得meta-learning更加稳定,从而提升了模型的性能。最后,我们在有噪声的分类问题以及长尾分类问题都验证了我们方法的有效性。

https://www.zhuanzhi.ai/paper/fda93b750216436e45e6f660ed76776e

成为VIP会员查看完整内容
0
12

相关内容

Meta Learning,元学习,也叫 Learning to Learn(学会学习)。是继Reinforcement Learning(增强学习)之后又一个重要的研究分支。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

基于CAM的弱监督定位方法主要通过多样的空间正则提高目标响应区域,忽略了模型中隐含的目标结构信息。我们提出了基于高阶相似性的目标定位方法 (SPA),充分挖掘了模型隐含的目标结构信息,显著提高了弱监督目标定位准确度。

目前代码已开源:

https://github.com/Panxjia/SPA_CVPR2021

弱监督目标检测近年来逐渐受到国内外研究机构以及工业界关注。基于全监督的目标检测方法需要耗费大量的人力、物力获取大量准确的标注信息,对于任务更新以及迁移极其不友好。近年来,全世界范围内的研究者试图从弱监督学习方面突破标注数据的限制,为目标检测寻找一种更加高效、低廉的解决框架

弱监督定位研究如何仅利用图像的类别标签对图像中目标进行定位。

2014年MIT提出的类别响应图CAM,得到目标的响应掩模,之后通过最小包围框得到目标的定位结果。CAM得到的类别响应掩模只能覆盖目标最具判别性的局部区域,如图1第二行所示。后续的研究工作多通过空间正则技术,如通过擦除、多分支补充等方法试图扩大类别响应区域。虽然在响应区域上有一定的改善,但是现有的工作均忽略了保持目标结构特性的重要性,无法刻画目标的边缘、形状等特性。另外,现有方法的分类网络均采用Global Average Pooling(GAP)结构对特征进行聚合,这在一定程度上损失了目标的结构信息。

本文提出了一种两阶段的弱监督目标定位方法(SPA),从模型结构与类别响应图两个方面优化定位结果,提高响应掩模的准确度。整体方法框架如图2所示。

具体地,从模型结构方面,我们提出了受限激活模块。

现有方法中往往采用Global Average Pooling (GAP)+Softmax的分类结构,这种结构导致模型丢失目标结构信息,主要原因包括:

一,GAP结构将前景目标与背景区域混为一谈,限制了模型定位前景目标的能力;

二,无限制的类别响应特征图往往出现局部极高响应误导模型分类的现象,不利于模型准确定位到目标的位置。

因此,我们设计了一个简单有效的受限激活模块,主要包括两个部分:

一,我们首先通过计算每个特征位置在类别响应图上的方差分布得到粗略的伪mask, 用以区分前背景;

二,我们利用Sigmoid操作对类别响应特征图进行归一化,之后利用提出的受限激活损失函数引导模型关注目标前景区域。

成为VIP会员查看完整内容
0
12

深度学习技术在取得优秀性能的同时,往往需要依赖大规模的标注数据。然而,对于所有感兴趣的目标任务都进行大规模的数据收集与标注是难以实现的。一种解决方案是将已有的源领域数据中的知识迁移到目标领域,以促进对目标领域任务的学习。Domain Generalization(DG)是其中的一个重要问题,DG的目的是从一个或多个源领域中学习模型,使之能够直接应用到未见过的目标领域上,并具有较强的泛化性能。

标准的DG问题假设所有源领域与目标领域都具有完全相同的标签集,然而这一假设在实际情况中很可能不成立。由于DG常常需要有多个源领域,而每一个源领域可能都是从不同渠道收集而来,对所有源领域具有完全相同标签集的假设会为源领域数据的收集带来困难。由于目标领域数据在训练阶段是不可见的,因此它与各源领域标签集之间的关系也应该是开放的。据此,我们放宽标准DG问题中所有源领域与目标领域都具有完全相同的标签集的假设,提出Open Domain Generalization(OpenDG) 问题。

图1 Open Domain Generalization问题示意图 该问题中各源领域可能拥有不同的标签集,目标领域中包含了某些源领域中出现过的类别,也可能存在源领域中没有出现过的类别。学习的目的是从这些开放场景下的源领域上得到泛化性能较强的模型,使之能够在推理过程中直接对目标领域数据进行正确分类。若目标领域样本属于源领域标签集中的类别,则模型应将其分为源领域中的具体的那一类;若目标领域样本的类别未在源领域中出现,则应将其分为“未知类”。

成为VIP会员查看完整内容
0
10

本文是第一个将Transformers应用于视频分割领域的方法。视频实例分割指的是同时对视频中感兴趣的物体进行分类,分割和跟踪的任务。现有的方法通常设计复杂的流程来解决此问题。本文提出了一种基于Transformers的视频实例分割新框架VisTR,该框架将视频实例分割任务视为直接端到端的并行序列解码和预测的问题。给定一个含有多帧图像的视频作为输入,VisTR直接按顺序输出视频中每个实例的掩码序列。该方法的核心是一种新的实例序列匹配和分割的策略,该策略在整个序列级别上对实例进行监督和分割。VisTR将实例分割和跟踪统一到了相似度学习的框架下,从而大大简化了流程。在没有任何trick的情况下,VisTR在所有使用单一模型的方法中获得了最佳效果,并且在YouTube-VIS数据集上实现了最快的速度。

https://www.zhuanzhi.ai/paper/0dfba6abdc5e6a189d86770822c17859

成为VIP会员查看完整内容
0
13

Adaptive Methods for Real-World Domain Generalization

不变方法在解决领域泛化问题方面已经取得了显著的成功,该问题的目标是对不同于训练中使用的数据分布进行推断。在我们的工作中,我们研究是否有可能利用未知测试样本本身的领域信息。我们提出一个域自适应方法包括两个步骤: a)我们首先学习区别的域嵌入从无监督训练的例子,和 b)使用该域嵌入作为补充信息来构建一个domainadaptive模型,这需要输入以及其域考虑而做出的预测。对于看不见的域,我们的方法简单地使用少数未标记的测试示例来构建域嵌入。这使得对任何看不见的域进行自适应分类成为可能。我们的方法在各种领域泛化基准上实现了最先进的性能。此外,我们还引入了第一个真实世界的大规模域泛化基准Geo-YFCC,该基准包含超过40个训练域、7个验证域和15个测试域的1.1万个样本,比之前的工作大了几个数量级。我们表明,现有的方法要么不能扩展到这个数据集,要么不如基于所有训练领域的数据联合的训练模型的简单基线。相比之下,我们的方法获得了显著的1%的改进。

https://www.zhuanzhi.ai/paper/6e7661967d0879ebfd0236873a75386b

成为VIP会员查看完整内容
0
14

本文提出了第一种实时全身捕捉的方法,该方法通过单一颜色图像的动态3D人脸模型来估计身体和手的形状和运动。我们的方法使用了一种新的神经网络结构,利用身体和手之间的相关性在高计算效率。与以往的工作不同,我们的方法是在多个数据集上联合训练,分别关注手、身体或面部,不需要同时标注所有部分的数据,这是很难创建足够多的多样性。这种多数据集训练的可能性使其具有优越的泛化能力。与早期的单眼全身方法相比,我们的方法通过估算统计人脸模型的形状、表情、反照率和光照参数来捕捉更具表现力的3D人脸几何形状和颜色。我们的方法在公共基准上实现了具有竞争力的精度,同时显著更快,提供更完整的面部重建。

https://www.zhuanzhi.ai/paper/9de12fe4bffc839e10209a1ad648f1b5

成为VIP会员查看完整内容
0
13

该文被大会录用为Oral论文,是北京邮电大学与英国萨里大学“北邮-萨里人工智能联合实验室”的联合研究成果,指导老师是来自人工智能与网络搜索教研中心的郭军教授、马占宇教授和萨里大学CVSSP中心SketchX Lab的Yi-Zhe Song教授。人工智能学院博士生常东良同学为论文一作。本文首先通过一个Human Study 发现了传统细粒度图像分类任务无法满足大多人需求的问题,进而重新定义了该任务:从单标签分类任务拓展为按照预先定义的层次化标签(从粗粒度到细粒度)进行自上而下的多标签分类任务。此外,通过实验发现粗粒度标签预测任务会抑制细粒度特征的学习,而细粒度标签预测任务则会促进粗粒度特征的学习。该发现促使我们设计了一个简单且高效的解决方案来解决本文提出的新任务:(1)利用与粒度相关的分类器将粗粒度特征与细粒度特征进行解耦;(2)通过一个梯度控制器使得细粒度特征能够参与粗粒度分类器的决策。实验表明,本文提出的方法在新的细粒度图像分类任务中获得了最佳的性能。

https://www.zhuanzhi.ai/paper/f08dadad7419f6bfad654674dfb16336

成为VIP会员查看完整内容
0
21

本文由腾讯 AI Lab 和中国科学院自动化研究所合作完成。图分类、药物分子官能团发掘、图数据去噪等任务都可以归结为寻找一个与原图标签最为相关且滤除噪声结构的子图。然而监督学习需要利用子图层面的标签,且图的不规则离散结构对算法优化带来了挑战。

本文基于信息瓶颈理论提出了信息瓶颈子图的概念和图信息瓶颈算法,并针对图的不规则离散结构提出了二层互信息优化算法与连续化松弛方法。基于该算法,不需要显式的子图标签即可有效识别这种子图。

实验表明,该算法能有效提高多种图分类算法的精度;在分子数据集上,该算法能够准确识别最能影响药物分子属性的子结构;此外,该算法对于有噪声的图分类任务有较好的鲁棒性。

本文在图深度学习中开拓出了一个子图识别的新的研究领域,并在药物发现中起到了一定的辅助分析的作用。其中结合信息瓶颈理论来解决图问题的思路也对今后的相关研究有借鉴意义。

想了解更多关于图深度学习的信息,可阅读文章:腾讯AI Lab联合清华、港中文,万字解读图深度学习历史、最新进展与应用

https://arxiv.org/abs/2010.05563

成为VIP会员查看完整内容
0
8

该工作针对基于半监督的医学图像算法,提出了一种利用双任务一致性约束的新方法,将同一个分割问题表示成两个不同的任务,并鼓励两个任务在预定义的表示空间内保持一致,进而充分利用未标注的数据提升深度神经网络的性能,同时大大降低训练网络模型所需要的标注成本。图片

基于深度学习的方法因为在图像处理上优越表现而受到广泛的关注,近年来在图像识别、人工智能领域不断取得了性能突破。但是由于深度神经网络需要依赖大量良好标注的数据,在小数据上很难达到比较好的效果。在医学图像领域,数据标注通常需要大量的时间,也需要医学领域的专业知识,但医生通常很忙,没有充足的时间来标注大量的数据,因此从少量标注数据和大量未标注数据来学习以获得高性能模型变得尤为重要。

基于这样的问题,本文提出了一种基于双任务一致性的半监督学习算法,在现有全监督医学图像分割算法基础上,该算法可以充分利用没有标注的数据进行进一步学习,进而大大提高未标注数据的利用率和促进网络分割性能。实验表明,通过引入双任务一致性,网络能更稳定的从少量标注数据和大量未标注数据中学习,并显著提高分割结果。同时与最新的半监督分割算法相比,此方法需要的训练成本更低,所取得的效果也更好,从而降低了深度神经网络对标注数据的依赖。
成为VIP会员查看完整内容
0
8
小贴士
相关VIP内容
专知会员服务
12+阅读 · 5月1日
专知会员服务
13+阅读 · 4月16日
专知会员服务
14+阅读 · 3月31日
专知会员服务
13+阅读 · 3月18日
专知会员服务
21+阅读 · 3月8日
专知会员服务
8+阅读 · 2月8日
专知会员服务
41+阅读 · 2020年12月10日
相关资讯
相关论文
Khin Me Me Chit,Laet Laet Lin
0+阅读 · 5月13日
Renlong Jie,Junbin Gao,Andrey Vasnev,Minh-Ngoc Tran
0+阅读 · 5月11日
Taosha Fan,Todd Murphey
0+阅读 · 5月4日
Haoyu He,Jing Zhang,Bohan Zhuang,Jianfei Cai,Dacheng Tao
0+阅读 · 5月4日
Youjiang Xu,Linchao Zhu,Lu Jiang,Yi Yang
8+阅读 · 4月30日
Rui Liu,Berrak Sisman,Feilong Bao,Guanglai Gao,Haizhou Li
3+阅读 · 2020年2月2日
Hongwei Wang,Fuzheng Zhang,Mengdi Zhang,Jure Leskovec,Miao Zhao,Wenjie Li,Zhongyuan Wang
9+阅读 · 2019年6月13日
Dynamic Transfer Learning for Named Entity Recognition
Parminder Bhatia,Kristjan Arumae,Busra Celikkaya
3+阅读 · 2018年12月13日
Meta-Transfer Learning for Few-Shot Learning
Qianru Sun,Yaoyao Liu,Tat-Seng Chua,Bernt Schiele
5+阅读 · 2018年12月6日
A General and Adaptive Robust Loss Function
Jonathan T. Barron
7+阅读 · 2018年11月5日
Top