今日 Paper | 多轨迹预测研究;3DMM 人脸模型;对抗网络判别器;交叉模态信息等

2020 年 3 月 10 日 AI科技评论

  目录

多轨迹预测研究

针对VI-ReID的分层跨模态行人在识别

3DMM 人脸模型:从过去到现在到未来

一种基于U-Net的生成性对抗网络判别器

用于图像描述的交叉模态信息的探索和蒸馏

  多轨迹预测研究

论文名称:The Garden of Forking Paths: Towards Multi-Future Trajectory Predictio

作者:Junwei Liang

发表时间:2020/2/1

论文链接:http://arxiv.org/pdf/1912.06445.pdf

推荐原因

研究意义:

轨迹预测问题是目前AI方向研究的一个热点问题。基于此,本文利用多种不同轨迹类型研究了如何高效准确的预测出路径的可能分布,从而有助于未来在多目标预测方面的研究和应用。

创新点:

1、创建了一个基于我们现实世界中轨迹数据的3D模拟器数据集;

2、作者提出了一种新的模型,记为Multiverse,该模型可以准确地用于多轨迹预测。

  针对VI-ReID的分层跨模态行人在识别

论文名称:Hi-CMD:HierarchicalCross-ModalityDisentanglementforVisible-Infrared PersonRe-Identification

作者:Seokeon Choi

发表时间:2020/2/1

论文链接:https://arxiv.org/pdf/1912.01230.pdf

推荐原因

研究意义:通过对夜间视频的监控进行跨模态行人识别是当下ReID方向的一个的难点,目前已经受到学术界的广泛关注。在此背景下,作者提出了一种分层跨模态行人识别(Hi-CMD)方法。为了实现该方法,作者引入了ID-preserving图像的生成网络和层次特征学习模块,通过这种网络结构可有效的解决行人在不同姿势和照明条件下进行ReID任务。

文章的创新点

1、提出了种一种新颖的VI-ReID行人跨模态识别方法:Hi-CMD,与传统的模型方法相比,该模型通过区分ID-discriminative和可见红外图像中的ID-excluded两种因素,有效地减少了跨模态和模态内的差异。

2、利用ID-PIG网络,避免可能因训练数据不足而带来的问题。

  3DMM 人脸模型:从过去到现在到未来

论文名称:3D Morphable Face Models -- Past, Present and Future

作者:Bernhard Egger / William A. P. Smith / Ayush Tewari / Stefanie Wuhrer / Michael Zollhoefer / Thabo Beeler / Florian Bernard / Timo Bolkart / Adam Kortylewski / Sami Romdhani / Christian Theobalt / Volker Blanz / Thomas Vetter

发表时间:2019/9/3

论文链接:http://arxiv.org/abs/1909.01815

推荐原因

文章详细介绍了 3DMM 人脸模型自20多年前提出至今以来的发展,是一篇非常全面非常优秀的综述文章,作者都是由该领域的前沿学者。

虽然已经提出有20多年,但 3DMM 模型的构建和应用,如捕捉、建模、图像合成和分析等等,仍然存在众多挑战,是一个非常活跃的研究主题,文章回顾了这些领域中的最新技术,在最后进一步进行了展望,提出了一些挑战,为未来的研究提供了一些方向,并强调了当前和未来的一些应用。

强烈建议相关专业学生和老师仔细研读,是一个不可多得的 3DMM 人脸模型的综述文章。

  一种基于U-Net的生成性对抗网络判别器

论文名称:A U-Net Based Discriminator for Generative Adversarial Networks

作者:Schönfeld Edgar /Schiele Bernt /Khoreva Anna

发表时间:2020/2/28

论文链接:https://arxiv.org/abs/2002.12655

推荐原因

这篇论文被CVPR 2020接收,提出了一种基于U-Net的判别器架构,在保持合成图像的全局一致性的同时,向生成器提供详细的每像素反馈。在判别器的每像素响应支持下,这篇论文进一步提出一种基于CutMix数据增强的逐像素一致性正则化技术,鼓励U-Net判别器更多关注真实图像与伪图像之间的语义和结构变化,不仅改善了U-Net判别器的训练,还提高了生成样本的质量。新判别器在标准分布和图像质量指标方面改进了现有技术,使生成器能够合成具有变化结构、外观和详细程度的图像,并保持全局和局部真实感。与BigGAN基线模型相比,所提方法在FFHQ、CelebA和COCO-Animals数据集上平均提高了2.7个FID点。

  用于图像描述的交叉模态信息的探索和蒸馏

论文名称:Exploring and Distilling Cross-Modal Information for Image Captioning

作者:Liu Fenglin /Ren Xuancheng /Liu Yuanxin /Lei Kai /Sun Xu

发表时间:2020/2/28

论文链接:https://arxiv.org/abs/2002.12585

推荐原因

这篇论文要解决的是图像描述任务。

这篇论文认为图像理解需要相关区域的视觉注意力信息和对应感兴趣的属性的语义注意力信息。为进行有效的注意力捕获,这篇论文从交互模态的角度探索图像描述任务,并提出全局局部信息探索与蒸馏方法,同时以视觉的和语言的方式探索并提取原始信息。通过提取显著区域群组以及属性的搭配信息,新方法在全局参考基于字幕上下文的图像空间和关系表示,在局部提取细粒度区域和属性以进行单词选择。这篇论文所提的全注意力模型在离线COCO评估中获得129.3的CIDEr评分,在准确性、速度和参数量方面均具有优势。

  论文作者团队招募

为了更好地服务广大 AI 青年,AI 研习社正式推出全新「论文」版块,希望以论文作为聚合 AI 学生青年的「兴趣点」,通过论文整理推荐、点评解读、代码复现。致力成为国内外前沿研究成果学习讨论和发表的聚集地,也让优秀科研得到更为广泛的传播和认可。

我们希望热爱学术的你,可以加入我们的论文作者团队。

加入论文作者团队你可以获得

    1.署着你名字的文章,将你打造成最耀眼的学术明星

    2.丰厚的稿酬

    3.AI 名企内推、大会门票福利、独家周边纪念品等等等。

加入论文作者团队你需要:

    1.将你喜欢的论文推荐给广大的研习社社友

    2.撰写论文解读

如果你已经准备好加入 AI 研习社的论文兼职作者团队,可以添加运营小姐姐的微信(ID:julylihuaijiang),备注“论文兼职作者”

登录查看更多
1

相关内容

【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
CVPR 2020 最佳论文与最佳学生论文!
专知会员服务
35+阅读 · 2020年6月17日
近期必读的8篇 AAAI 2020【图神经网络(GNN)】相关论文
专知会员服务
76+阅读 · 2020年1月15日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
32+阅读 · 2020年1月10日
一种行人重识别监督之下的纹理生成网络
人工智能前沿讲习班
4+阅读 · 2019年6月30日
【学界】CVPR 2019 | 加性对抗学习新模型,消灭身份识别偏差
GAN生成式对抗网络
9+阅读 · 2019年5月26日
CMU论文解读:基于GAN和VAE的跨模态图像生成
PaperWeekly
9+阅读 · 2018年8月20日
行人再识别ReID论文阅读-SPGAN
极市平台
10+阅读 · 2018年2月26日
Arxiv
8+阅读 · 2019年2月15日
Arxiv
5+阅读 · 2018年5月21日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
7+阅读 · 2018年1月21日
Arxiv
11+阅读 · 2018年1月15日
VIP会员
相关论文
Arxiv
8+阅读 · 2019年2月15日
Arxiv
5+阅读 · 2018年5月21日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
7+阅读 · 2018年1月21日
Arxiv
11+阅读 · 2018年1月15日
Top
微信扫码咨询专知VIP会员