基于学习的图匹配方法已经发展和探索了十多年,最近在范围和受欢迎程度方面迅速增长。然而,以往的基于学习的算法,无论有没有深度学习策略,都主要关注节点和/或边缘亲和力生成的学习,而对组合求解器的学习关注较少。在这篇论文中,我们提出了一个完全可训练的图匹配框架,在这个框架中,亲和的学习和组合优化的求解不像以前的许多技术那样被明确地分开。首先将两个输入图之间的节点对应问题转化为从一个构造的赋值图中选择可靠节点的问题。然后,利用图网络块模块对图进行计算,形成每个节点的结构化表示。最后对每个节点预测一个用于节点分类的标签,并在正则化的排列差异和一对一匹配约束下进行训练。该方法在四个公共基准上进行了评估,并与最先进的算法进行了比较,实验结果表明了该方法的良好性能。

成为VIP会员查看完整内容
0
24

相关内容

题目: Laplacian Regularized Few-Shot Learning

简介:

我们为小样本学习提出了一个拉普拉斯正则化推断。给定从基类中学习到的任何特征嵌入,我们将包含两个项的二次二进制赋值函数最小化:(1)将查询样本分配给最近的类原型的一元项,以及(2)鼓励附近查询样本成对使用的成对拉普拉斯项具有一致的标签。我们的推论不会重新训练基本模型,并且可以将其视为查询集的图形聚类,但要受到支持集的监督约束。我们导出了函数松弛的计算有效边界优化器,该函数在保证收敛的同时为每个查询样本计算独立(并行)更新。在基础类上进行简单的交叉熵训练,并且没有复杂的元学习策略后,我们对五个基准进行了全面的实验。我们的LaplacianShot在不同模型,设置和数据集上具有显着优势,始终优于最新方法。此外,我们的归纳推理非常快,其计算时间接近于归纳推理,可用于大规模的一次性任务。

成为VIP会员查看完整内容
0
63

小样本学习(FSL)近年来引起了越来越多的关注,但仍然具有挑战性,因为学习从少数例子中归纳的固有困难。本文提出了一种自适应间隔原则,以提高基于度量的元学习方法在小样本学习问题中的泛化能力。具体地说,我们首先开发了一个与类相关的加性边缘损失算法,该算法考虑了每对类之间的语义相似性,从而将特征嵌入空间中的样本从相似的类中分离出来。此外,我们在抽样训练任务中加入所有类别之间的语义上下文,并开发了与任务相关的附加间隔损失,以更好地区分不同类别的样本。我们的自适应间隔方法可以很容易地推广到更现实的广义FSL设置。大量的实验表明,在标准FSL和通用FSL设置下,所提出的方法可以提高现有基于度量的元学习方法的性能。

成为VIP会员查看完整内容
0
66

主题: Locally Differentially Private (Contextual) Bandits Learning

摘要:

首先,我们提出了一种简单的黑盒归约框架,该框架可以解决带有LDP保证的大量无背景的bandits学习问题。根据我们的框架,我们可以通过单点反馈(例如 private bandits凸优化等)改善private bandits学习的最佳结果,并在LDP下获得具有多点反馈的BCO的第一结果。 LDP保证和黑盒特性使我们的框架在实际应用中比以前专门设计的和相对较弱的差分专用(DP)上下文无关强盗算法更具吸引力。此外,我们还将算法扩展到在(ε,δ)-LDP下具有遗憾约束ō(T~3/4 /ε)的广义线性bandits,这被认为是最优的。注意,给定DP上下文线性bandits的现有Ω(T)下界,我们的结果表明LDP和DP上下文bandits之间的根本区别。

成为VIP会员查看完整内容
0
12

主动学习是通过对最有代表性的样本进行抽样,设计标签有效的算法。在本文中,我们提出了一种状态重新标记对抗主动学习模型(SRAAL),该模型利用标注和标记/未标记的状态信息来获得信息量最大的未标记样本。SRAAL由一个表示生成器和一个状态鉴别器组成。该生成器利用补充标注信息与传统重建信息生成样本的统一表示,将语义嵌入到整个数据表示中。然后,我们在鉴别器中设计了一个在线不确定度指标,使未标记样本具有不同的重要性。因此,我们可以根据鉴别器的预测状态来选择信息最丰富的样本。我们还设计了一个算法来初始化标记池,这使得后续的采样更加有效。在各种数据集上进行的实验表明,我们的模型优于现有的主动学习方法,并且我们的初始采样算法具有更好的性能。

成为VIP会员查看完整内容
0
41

题目: Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentation

摘要: 图像级弱监督语义分割是近年来深入研究的一个具有挑战性的问题。大多数高级解决方案都利用类激活映射(CAM)。然而,由于监督的充分性和弱监督的差距,CAMs很难作为目标掩模。在这篇论文中,我们提出了一个自我监督的等变注意机制(SEAM)来发现额外的监督并缩小差距。我们的方法是基于等方差是完全监督语义分割的一个隐含约束,其像素级标签在数据扩充过程中与输入图像进行相同的空间变换。然而,这种约束在图像级监控训练的凸轮上丢失了。因此,我们提出了对不同变换图像的预测凸轮进行一致性正则化,为网络学习提供自监督。此外,我们提出了一个像素相关模块(PCM),它利用上下文外观信息,并改进当前像素的预测由其相似的邻居,从而进一步提高CAMs的一致性。在PASCAL VOC 2012数据集上进行的大量实验表明,我们的方法在同等监督水平下表现优于最先进的方法。

成为VIP会员查看完整内容
0
61

图卷积网络(GCN)在许多应用中越来越受欢迎,但在大型图数据集上的训练仍然是出了名的困难。它们需要从它们的邻居递归地计算节点表示。当前的GCN训练算法要么计算成本高,随层数呈指数增长,要么加载整个图和节点嵌入时占用大量内存。提出了一种高效的GCN (L-GCN)分层训练框架,将训练过程中的特征集合和特征转换分离出来,大大降低了训练的时间复杂度和记忆复杂度。我们在图同构框架下对L-GCN进行了理论分析,结果表明,在较温和的条件下,L-GCN与代价较高的传统训练算法具有同样强大的GCNs性能。我们进一步提出了L^2-GCN,它为每一层学习一个控制器,可以自动调整L-GCN中每一层的训练时间。实验表明,L-GCN至少比目前的水平快一个数量级,内存使用的一致性不依赖于数据集的大小,同时保持了可比较的预测性能。通过学习控制器,L^2-GCN可以进一步减少一半的训练时间。我们的代码在这个https URL中可用。

成为VIP会员查看完整内容
0
33

近年来,许多手工设计和搜索的网络被应用于语义分割。然而,以前的工作打算在预定义的静态架构中处理各种规模的输入,如FCN、U-Net和DeepLab系列。本文研究了一种概念上的新方法来缓解语义表示中的尺度差异,即动态路由。该框架根据图像的尺度分布,生成与数据相关的路径。为此,提出了一种可微选通函数——软条件门,用于动态选择尺度变换路径。此外,通过对门控函数进行预算约束,可以通过端到端方式进一步降低计算成本。我们进一步放宽了网络级路由空间,以支持每个转发中的多路径传播和跳转连接,带来了可观的网络容量。为了证明动态特性的优越性,我们比较了几种静态架构,它们可以作为路由空间中的特殊情况进行建模。为了证明动态框架的有效性,我们在Cityscapes和PASCAL VOC 2012上进行了大量的实验。代码在此https://github.com/yanwei-li/DynamicRouting

成为VIP会员查看完整内容
0
23

弱监督语义分割是一项具有挑战性的任务,因为没有提供像素级的标签信息供训练使用。最近的方法利用分类网络,通过选择具有强响应的区域来定位目标。然而,虽然这种响应映射提供了稀疏信息,但在自然图像中像素之间存在很强的两两关系,可以利用这种两两关系将稀疏映射传播到更密集的区域。本文提出了一种迭代算法来学习这种两两关系,它由两个分支组成,一个是学习每个像素的标签概率的一元分割网络,另一个是学习亲和矩阵并细化由一元网络生成的概率图的两两亲和网络。将两两网络的细化结果作为监督,对一元网络进行训练,通过迭代的方法逐步获得较好的分割效果。为了在不需要精确标注的情况下获得可靠的像素亲和力,我们还提出了可信区域的挖掘方法。我们证明了迭代训练这个框架等价于优化一个收敛到局部最小值的能量函数。在PASCAL VOC 2012和COCO数据集上的实验结果表明,所提出的算法在性能上优于目前最先进的方法。

成为VIP会员查看完整内容
0
36
小贴士
相关VIP内容
专知会员服务
66+阅读 · 2020年6月9日
专知会员服务
33+阅读 · 2020年3月31日
专知会员服务
36+阅读 · 2020年2月20日
相关论文
Ting Chen,Simon Kornblith,Mohammad Norouzi,Geoffrey Hinton
20+阅读 · 2020年2月13日
Simon S. Du,Kangcheng Hou,Barnabás Póczos,Ruslan Salakhutdinov,Ruosong Wang,Keyulu Xu
8+阅读 · 2019年11月4日
Yingtian Zou,Jiashi Feng
7+阅读 · 2019年4月19日
Fréderic Godin,Anjishnu Kumar,Arpit Mittal
5+阅读 · 2019年4月3日
Ke Sun,Zhanxing Zhu,Zhouchen Lin
6+阅读 · 2019年2月28日
Fréderic Godin,Anjishnu Kumar,Arpit Mittal
3+阅读 · 2019年2月26日
Andreea Bobu,Andrea Bajcsy,Jaime F. Fisac,Anca D. Dragan
3+阅读 · 2018年10月11日
Jingkang Wang,Yang Liu,Bo Li
3+阅读 · 2018年10月5日
Rahul Meshram,D. Manjunath,Nikhil Karamchandani
9+阅读 · 2018年3月23日
Yongfeng Zhang,Qingyao Ai,Xu Chen,Pengfei Wang
21+阅读 · 2018年3月22日
Top
微信扫码咨询专知VIP会员