近期必读的六篇 ECCV 2020【行人重识别(ReID)】相关论文

2020 年 8 月 4 日 专知
【导读】作为计算机视觉领域三大会议之一,European Conference on Computer Vision(欧洲计算机视觉大会,ECCV) 备受全球领域众多专业人士关注。几天前,ECCV 2020官方发布接收论文,本次大会共有5025篇投稿,1361篇被接收,接受率27%。受疫情影响,原定于2020年8月23日-28日在英国格拉斯哥举行的ECCV 2020将会以Online方式进行。论文列表已经放出,小编发现行人重识别方向火热,录用了好多篇相关paper,近期一些Paper已经放出来了,为此专知小编整理了六篇ECCV 2020行人重识别(Person Re-identification,ReID)  相关论文供大家参考——无监督ReID、语义解析、跨域ReID、域自适应ReID

ECCV 2020 接受论文列表:
https://eccv2020.eu/accepted-papers/

ECCV2020OD ICML2020GNN_Part1 KDD2020GNN_Part1 CVPR2020SGNN CVPR2020GNN_Part2 CVPR2020GNN_Part1 WWW2020GNN_Part1 AAAI2020GNN ACMMM2019GNN CIKM2019GNN ICLR2020GNN

1、Appearance-Preserving 3D Convolution for Video-based Person Re-identification

作者:Xinqian Gu, Hong Chang, Bingpeng Ma, Hongkai Zhang, Xilin Chen

摘要:由于行人检测结果的不完善和姿态的变化,在基于视频的行人重识别(ReID)中时间表观不对齐(temporal appearance misalignment)是不可避免的。在这种情况下,3D卷积可能会破坏行人视频片段的表观表示,从而对ReID造成损害。针对这一问题,我们提出了表观保留三维卷积算法(Appearance-Preserving 3D Convolution, AP3D),它由表观保持模块(Appearance-Preserving Module, APM)和三维卷积核两部分组成。通过APM在像素级别上对齐相邻的特征图,后续的3D卷积可以在保持表观表示质量的前提下对时间信息进行建模。通过简单地用AP3D替换原始的3D卷积内核,可以很容易地将AP3D与现有的3D ConvNet相结合。大量的实验证明了AP3D对于基于视频的ReID的有效性,并且在三个广泛使用的数据集上的结果都超过了最新水平。

代码:

https://github.com/guxinqian/AP3D

网址:

https://arxiv.org/abs/2007.08434


2、Global Distance-distributions Separation for Unsupervised Person Re-identification

作者:Xin Jin, Cuiling Lan, Wenjun Zeng, Zhibo Chen

摘要:有监督行人重识别(ReID)在实际部署中由于领域差距和缺乏对目标域数据的标注,往往具有较差的可扩展性和可用性。领域自适应的无监督ReID是有吸引力的,但也是具有挑战性的。现有的无监督ReID方法往往不能通过基于距离的匹配/排序来正确识别正样本和负样本。正样本对(Pos-Distr)和负样本对(Neg-Distr)的两个距离分布通常有很大的重叠不能很好地分开。为了解决这个问题,我们在这两个分布上引入了全局距离分布分离(Global Distance-distributions Separation, GDS)约束,以鼓励从全局角度清晰地分离正样本和负样本。我们将两个全局距离分布建模为高斯分布,并将这两个分布分开,同时鼓励它们在无监督训练过程中保持锐化。具体地说,为了从全局角度对分布进行建模,并促进分布和GDS相关损失的及时更新,我们利用动量更新机制来构建和维护分布参数(均值和方差),并在训练期间动态计算损失。我们还提出了基于分布的难例挖掘,以进一步促进两种分布的分离。我们验证了GDS约束在无监督ReID网络中的有效性。在多个ReID基准数据集上的大量实验表明,我们的方法在基线的基础上有了显着的提高,并达到了最先进的性能。

网址:

https://arxiv.org/abs/2006.00752


3、Identity-Guided Human Semantic Parsing for Person Re-Identification

作者:Kuan Zhu, Haiyun Guo, Zhiwei Liu, Ming Tang, Jinqiao Wang

摘要:现有的alignment-based方法必须使用预先训练好的人类解析模型来实现像素级的比对,并且不能识别对个人ReID至关重要的个人物品(例如背包和网签)。在这篇论文中,我们提出了身份指导的人类语义解析方法(ISP),在只有身份标签的情况下,可以在像素级别定位人体部位和个人物品。我们在特征映射上设计了级联聚类(cascaded clustering)来生成人体部位的伪标签。具体地说,对于一个人的所有图像的像素,我们首先将其分组为前景或背景,然后将前景像素分组为人体部分。聚类分配(cluster assignments)随后被用作人体部件的伪标签来监督部件估计,ISP迭代地学习特征映射并对其进行分组。最后,根据自学习的部位估计得到人体部位和个人物品的局部特征,仅利用可见部位的特征进行检索。在三个广泛使用的数据集上的大量实验验证了ISP方法相对于许多最新方法的优越性。

代码:

https://github.com/CASIA-IVA-Lab/ISP-reID

网址:

https://arxiv.org/abs/2007.13467


4、Joint Disentangling and Adaptation for Cross-Domain Person Re-Identification

作者:Yang Zou, Xiaodong Yang, Zhiding Yu, B.V.K. Vijaya Kumar, Jan Kautz

摘要:尽管有监督行人再识别(re-id)已经取得了很大的进展,但由于存在巨大的领域差距,将re-id模型推广到新的领域仍然具有挑战性。最近,人们对使用无监督的域自适应来解决这一问题的兴趣与日俱增。现有的方法通常在既包含id相关因素又包含id无关因素的表示空间上进行自适应,从而不可避免地削弱了id相关特征的适应效果。在本文中,我们试图通过提炼要适应的表示空间来提高适应性。为此,我们提出了一个联合学习框架,该框架将id-相关/无关的特征分离开来,并且强制适应以单独地在与id相关的特征空间上工作。我们的模型包括一个将跨域图像编码到一个共享表观空间和两个独立结构空间的分解(disentangling)模块,以及一个在共享表观空间上执行对抗对齐和自训练的自适应模块。这两个模块经过联合设计,互相提升。大量的实验表明,所提出的联合学习框架在性能上明显优于最新的方法。

网址:

https://arxiv.org/abs/2007.10315


5、Multiple Expert Brainstorming for Domain Adaptive Person Re-identification

作者:Yunpeng Zhai, Qixiang Ye, Shijian Lu, Mengxi Jia, Rongrong Ji, Yonghong Tian

摘要:通常表现最好的深层神经模型是多个基本网络的集成,然而,关于领域自适应行人Re-ID的集成学习仍然没有被探索。本文提出了一种多专家头脑风暴网络(MEB-Net)用于领域自适应行人识别,为研究无监督条件下的模型集成问题开辟了一个很有前途的方向。MEBNet采用相互学习的策略,在一个源域内将多个不同结构的网络预训练成具有特定特征和知识的专家模型,然后通过专家模型之间的头脑风暴(相互学习)来实现自适应。MEB-Net通过引入专家权威的正则化方案,适应了专家在不同体系结构下学习的异构性,增强了改进后的Re-ID模型的识别能力。在大规模数据集(Market-1501和DukeMTMC-Reid)上的广泛实验证明了MEB-NET优于最先进的模型性能。

代码:

https://github.com/YunpengZhai/MEB-Net.

网址:

https://arxiv.org/abs/2007.01546


6、Rethinking the Distribution Gap of Person Re-identification with Camera-based Batch Normalization

作者:Zijie Zhuang, Longhui Wei, Lingxi Xie, Tianyu Zhang, Hengheng Zhang, Haozhe Wu, Haizhou Ai, and Qi Tian

摘要:行人重识别(ReID)的根本困难在于学习单个摄像机之间的对应关系。它强烈要求相机间的注释,但不能保证经过训练的模型能够很好地传输到以前未出现过的相机上。这些问题极大地限制了ReID的应用。本文对传统ReID方法的工作机制进行了重新思考,并提出了新的解决方案。通过一种有效的基于摄像机的批归一化(CBN)算子,强制所有摄像机的图像数据落在同一个子空间上,从而大大缩小了任意摄像机对之间的分布差距。这种调整带来了两个好处。首先,训练后的模型具有更好的跨场景的泛化能力,以及跨多个训练集的传输能力。其次,我们可以依靠相机间注释,这些注释之前由于缺乏跨相机信息而被低估,以实现具有竞争力的ReID性能。在广泛的ReID任务上的实验证明了该方法的有效性。

代码:

https://github.com/automan000/Camera-based-Person-ReID

网址:

https://arxiv.org/abs/2001.08680

请关注专知公众号(点击上方蓝色专知关注

  • 后台回复“ECCV2020REID” 就可以获取《6篇顶会ECCV 2020【行人重识别】相关论文的pdf下载链接~ 

文为专知编译,转载请联系本公众号获得授权

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
2

相关内容

行人重识别(Person re-identification)也称行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。广泛被认为是一个图像检索的子问题。给定一个监控行人图像,检索跨设备下的该行人图像。旨在弥补目前固定的摄像头的视觉局限,并可与行人检测/行人跟踪技术相结合,可广泛应用于智能视频监控、智能安保等领域。 由于不同摄像设备之间的差异,同时行人兼具刚性和柔性的特性 ,外观易受穿着、尺

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
近期必读的七篇 ECCV 2020【少样本学习(FSL)】相关论文
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
156+阅读 · 2020年6月30日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
近期必读的5篇 CVPR 2019【图卷积网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
Arxiv
5+阅读 · 2018年12月18日
VIP会员
Top
微信扫码咨询专知VIP会员