CVPR2021 最具创造力的那些工作成果!或许这就是计算机视觉的魅力!

2021 年 7 月 21 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨AI_Study
来源丨AI算法与图像处理
编辑丨极市平台

极市导读

 

CVPR2021 最具创造力的那些工作成果! >>加入极市CV技术交流群,走在计算机视觉的最前沿

CVPR 2021 Tutorial 《Unlocking Creativity with Computer Vision: Representations for Animation, Stylization and Manipulation》直译:用计算机视觉释放创造力:动画、造型和操纵的表现。

主页:https://snap-research.github.io/representations-for-creativity/

简介和目录

什么是创造力(Creativity)!

创造力——运用想象力和独创性想法进行创作的能力——需要掌握各种技能、可用的创造性工具、大量的努力,最重要的是要有创造性的头脑。物体的风格化或编辑要求艺术家理解物体的结构和变化因素。动画还需要了解对象的刚性和非刚性运动模式。这种复杂的操作可以通过使用具有合适表征的计算机视觉系统来实现。

我们将引导参会者通过设计和学习来构建创造性工具。选择正确的表征方式并建立一个学习框架往往是释放创造力的关键。我们将研究2D和体积对象表征、图像和视频表征、内容、样式和运动表征。当标记数据可用时,可以以有监督的方式学习某些表征,否则可以采用自我监督。此外,我们还区分了显式可解释表征和隐式表征。我们的研究表明,更好的表征可以更好地理解数据,进而提高生成内容的质量,最终形成良性循环。

会议组织者:

主要内容包括下面三个主题,每个主题又细分多个分支:

一、Representations for controllable image synthesis(可控图像合成的表征方法)

二、Object representations for manipulation (用于操纵的对象表征方法)

三、Content and motion representations for video synthesis animation (用于视频合成动画的内容和运动表征)

一、Representations for controllable image synthesis

可控图像合成的表征方法包含下面三部分:

  1. A Brief Introduction to Deep Generative Models
  2. Recent Advances in Semantic Image Synthesis
  3. Image Outpainting

1、A Brief Introduction to Deep Generative Models

汇报人:Stéphane Lathuilière 主页:http://stelat.eu/

作者简介:法国巴黎电信公司(Telecom Paris, France)多媒体团队的副教授。研究方向:回归问题的深度学习、图像和视频生成以及有限数据的学习(无监督领域自适应、自监督学习、持续学习)

摘要:本视频简要介绍了深层生成模型。在本教程中,将介绍几种用于图像和视频生成或操作的计算机视觉方法。本演示的目的不是对有关深层生成模型的文献进行全面的回顾,而是简要介绍本教程中介绍的大多数方法将采用的关键方法。

2、Recent Advances in Semantic Image Synthesis 语义图像合成研究进展

汇报人:Ming-Yu Liu 主页:http://mingyuliu.net/

作者简介:杰出的研究科学家和英伟达研究公司的经理。研究小组专注于深层生成模型及其应用。我们在视觉内容合成领域创作了多部极具影响力的研究作品,包括pix2pixHD、vid2vid、MoCoGAN、face-vid2vid、SPADE、GANcraft。

在这篇演讲中,我回顾了最近几年的语义图像合成工作。我把他们放在同一个角度,并说明了架构的变化。对训练这两个模型的两个主要目标函数进行了讨论和比较。

3、Image Outpainting 图像输出

汇报人:Hsin-Ying Lee 主页:http://hsinyinglee.com/

作者简介:Creative Vision team at Snap Research的研究科学家。于2020毕业于美国墨尔本大学ECES,获Ming Hsuan Yang教授的指导,于2016毕业于加利福尼亚南部大学电机工程系,获台湾大学电气工程系学士学位。

摘要:图像输出的目的是对给定的图像进行任意方向的外推。这项任务需要了解环境的结构和质地。现有的方法将任务建模为一个图像到图像的转换任务,由于强条件上下文的存在,会导致重复和单调的输出结果。在这篇演讲中,我将首先介绍如何利用GAN反转技术来实现多样化和可控的图像输出。接下来,为了更进一步,我将介绍我们解决一个更基本问题的尝试,即生成模型能否合成结构和纹理一致的无限分辨率图像。结合GAN反转技术,证明了该结构在图像输出任务中的有效性。

二、Object representations for manipulation

用于操纵的对象表征方法包含下面三个主题:

  1. Manipulating Hair
  2. Face Stylization
  3. Volumetric Implicit Representations for Object Manipulation

1、Manipulating Hair 发型编辑

汇报人:Kyle Olszewski 主页:http://hsinyinglee.com/

作者简介:南加州大学的学生,在Hao Li教授的几何捕获实验室工作。研究方向:实时面部表情跟踪,特别是使用适合新兴平台的技术,如虚拟和增强现实。

摘要:从无约束图像中获取、绘制和操纵头发的结构和外观是近十年来计算机视觉和图形学界广泛关注的问题。随着神经渲染技术的出现,这一领域的进展大大加快,它可以在用户输入的指导下,在真实图像中实现高质量的头发合成,而不依赖于传统的头发重建技术或渲染管道。在本次演讲中,我们将讨论这一领域的一些最新工作,重点讨论它们如何解决关键问题,例如如何表示头发的形状和外观,可以使用什么类型的数据(真实的和合成的)来训练这些系统,以及它们可以启用什么类型的用户输入和编辑操作。我们展示了如何使用各种技术,从基于示例的合成到适合新手用户的发型的细粒度局部编辑,在真实的面部图像中交互式地合成和编辑各种发型的合理图像和视频。

2、Face Stylization 人脸风格化

汇报人:Menglei Chai 主页:https://mlchai.com/

作者简介:Snap Research创意愿景小组的高级研究科学家。我拿到。浙江大学的图形与并行系统实验室(GAP)的博士学位,由坤舟教授监督。我从事计算机视觉和计算机图形学的研究,主要研究人类数字化、图像处理、三维重建和基于物理的动画

摘要:人脸风格化使各种视觉和图形应用成为可能。这项任务需要理解内容/风格的表示以及人脸的语义结构。虽然现有的方法能够在单张人脸图像上获得高质量的结果,但是人脸样式化可以进一步扩展,以消除更多创造性用例的阻碍。在这篇演讲中,为了将问题扩展到自动图像样式化之外,我们将讨论几个有趣的维度,例如视频样式化、几何样式化和三维可控样式化。在每一个方向上,我们都会介绍最新的代表性作品和我们的尝试,包括一个交互式视频风格化系统,它允许通过关键帧进行高保真的艺术控制,一个用于三维人脸风格化的联合外观和几何优化框架,提出了一种跨域三维引导的人脸操作方法,该方法可以利用人脸的先验信息编辑样式化的图像。

3、Volumetric Implicit Representations for Object Manipulation

汇报人:Kyle Olszewski 主页:https://kyleolsz.github.io/

摘要:近年来,图像内容的隐式表示在新视图合成(NVS)和三维重建等任务中显示出巨大的潜力。然而,在生成高质量的编辑图像的同时,使用这种表示来实现对该内容的可控的、3D感知的操作仍然是一个挑战。在这篇演讲中,我们描述了一种方法来解决这个问题使用编码器-解码器NVS框架。这个网络学习从一个图像中推断出一个物体的隐式体积表示作为它的瓶颈。尽管在训练期间没有使用3D监控,但是这种方法的空间解纠缠允许通过对体积瓶颈执行相应的3D变换来对所描绘的对象进行任意的空间操作。我们展示了各种应用,包括新颖的视图合成、三维重建和非刚性变换以及图像内容的组合。

三、Content and motion representations for video synthesis animation

用于视频合成动画的内容和运动表征包含下面四个主题:

  1. Video Synthesis and Manipulation
  2. Self-supervised Image Animation
  3. Supervised and Few-shot Animation
  4. Representations for Modeling Human Bodies

1、Video Synthesis and Manipulation 视频合成与处理

汇报人:Sergey Tulyakov 主页:http://www.stulyakov.com/

作者简介:Snap Research创新愿景团队的首席研究科学家。工作重点是通过计算机视觉和机器学习创造操纵世界的方法。这包括样式转换、真实感对象操作和动画、视频合成、预测和重定目标。

摘要:在本视频中,我们将讨论几种视频生成模型,如MoCoGAN和MoCoGAN HD,我们将了解这些方法背后的直觉,以及一些重要的实现细节。此外,我们将在视频生成领域引入一个新的领域,称为可播放视频生成,它允许对视频内容进行可控和交互式操作。

2、Self-supervised Image Animation 自监督图像动画

汇报人:Aliaksandr Siarohin 主页:http://www.stulyakov.com/

作者简介:特伦托大学的博士生,我在NICU SEBE的监督下工作,在多媒体和人类理解小组(MCOP)。研究方向包括机器学习的图像动画,视频生成,生成对抗网络和领域适应。

摘要:在这个讲座中,我们提出了一套无监督图像动画的方法。图像动画的任务是生成一个视频,其中来自源图像的对象像来自另一个驱动视频的对象一样移动。无监督动画的主要区别在于,它只需要一组训练视频,而不需要关于这些视频中对象的任何其他先验知识。

3、Supervised and Few-shot Animation 监督和少样本动画

汇报人:Jian Ren 主页:https://alanspike.github.io/

作者简介:研究科学家,在Snap公司的Creative Vision小组工作。在加入Snap公司之前,我曾在Adobe、Snap公司和Bytedance Research担任研究实习生。

摘要:**人体运动重定目标的目的是将源驱动视频中的运动信息传递给目标参考人,从而在对源驱动视频进行运动处理的同时合成包含目标人内容的真实感视频。**在这篇演讲中,我们将首先介绍专注于有监督运动传输的工作,其中需要来自目标人的训练视频,并且专门设计了一个模型来为一个目标人生成视频。然后,我们将转向使用目标人物的一个或几个图像来生成运动视频。通过少量镜头设置训练的模型可以合成任意人的视频。

4、Representations for Modeling Human Bodies 人体建模的表征方法

汇报人:Zeng Huang 主页:https://alanspike.github.io/

作者简介:Snap研究公司的研究科学家。我主要从事计算机图形学、三维视觉和深度学习。的研究工作都是围绕着虚拟人的数字化,将几何处理和深度学习结合起来,针对每个人都可以访问的尖端AR/VR应用程序。

摘要:研究人体是人类历史上一个长期的课题。自信息时代以来,人体数字化一直是计算机图形学和动画领域的一个重要研究方向。虽然高质量的人体扫描和视觉效果已经在电影行业得到了广泛的应用,但低成本和方便的人体数字化仍然是一个挑战。随着人们对这一领域的深入学习,最近有了一些令人兴奋的工作,并真正推动了这一任务的边界。在这次演讲中,我们将介绍近年来数字化全身穿着人类的研究成果。特别是,我们将回顾最近使用隐式函数表示身体几何体的尝试,以及它与动画管道和实时实现的结合。

参考论文链接

  • [1] Generative Adversarial Networks, Neurips 2014 , https://arxiv.org/abs/1406.2661

  • [2] Auto-Encoding Variational Bayes, ICLR 2014, https://arxiv.org/abs/1312.6114

  • [3] Least Squares Generative Adversarial Networks, ICCV 2017, https://arxiv.org/abs/1611.04076

  • [4] Wasserstein generative adversarial networks, ICML 2017, https://arxiv.org/abs/1701.07875

  • [5] Spectral Normalization for Generative Adversarial Networks, ICLR 2018, https://arxiv.org/abs/1802.05957

  • [6] Large Scale GAN Training for High Fidelity Natural Image Synthesis, ICLR 2019, https://arxiv.org/abs/1809.11096

  • [7] Conditional Generative Adversarial Nets, Nips-W 2014, https://arxiv.org/abs/1411.1784

  • [8] Progressive Growing of GANs for Improved Quality, Stability, and Variation, ICLR 2018, https://arxiv.org/abs/1710.10196

  • [9] A Style-Based Generator Architecture for Generative Adversarial Networks, CVPR 2019, https://arxiv.org/abs/1812.04948

  • [10] The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, report 2018, https://arxiv.org/abs/1802.07228

  • [11] Perceptual Losses for Real-Time Style Transfer and Super-Resolution, ECCV 2016, https://arxiv.org/abs/1603.08155

  • [12] High-resolution image synthesis and semantic manipulation with conditional gans, CVPR'2018 (https://arxiv.org/abs/1711.11585)

  • [13] Semantic Image Synthesis with Spatially-Adaptive Normalization, CVPR'2019 (https://arxiv.org/abs/1903.07291)

  • [14] Taming transformers for high-resolution image synthesis, CVPR'2021 (https://arxiv.org/abs/2012.09841)

  • [15] In&Out : Diverse Image Outpainting via GAN Inversion (https://arxiv.org/abs/2104.00675)

  • [16] InfinityGAN: Towards Infinite-Resolution Image Synthesis (https://arxiv.org/abs/2104.03963)

  • [17] Neural Hair Rendering, ECCV'2020 (https://arxiv.org/abs/2004.13297)

  • [18] MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait Editing, SIGGRAPH'2020 (https://arxiv.org/abs/2010.16417)

  • [19] Intuitive, Interactive Beard and Hair Synthesis with Generative Models, CVPR' 2020 (https://arxiv.org/abs/2004.06848)

  • [20] Interactive Video Stylization Using Few-Shot Patch-Based Training (https://arxiv.org/abs/2004.14489)

  • [21] Exemplar-Based 3D Portrait Stylization (https://arxiv.org/abs/2104.14559)

  • [22] Cross-Domain and Disentangled Face Manipulation with 3D Guidance (https://arxiv.org/abs/2104.11228)

  • [23] Transformable Bottleneck Networks, ICCV'2019 (https://arxiv.org/abs/1904.06458)

  • [24] MoCoGan: Decomposing motion and content for video generation, CVPR'2018 (https://arxiv.org/abs/1707.04993)

  • [25] A good image generator is what you need for high-resolution video synthesis, ICLR'2021 (https://openreview.net/forum?id=6puCS...)

  • [26]Playable video generation, CVPR'2021 (https://arxiv.org/abs/2101.12195)

  • [27]Animating Arbitrary Objects via Deep Motion Transfer, CVPR'2019 (https://arxiv.org/abs/1812.08861),

  • [28]First Order Motion Model for Image Animation, NeurIPS'2019 (https://arxiv.org/abs/2003.00196)

  • [29]Motion Representations for Articulated Animation, CVPR'2021 (https://arxiv.org/abs/2104.11280).

  • [30]Everybody Dance Now (https://arxiv.org/abs/1808.07371)

  • [31]Human Motion Transfer from Poses in the Wild (https://arxiv.org/abs/2004.03142)

  • [32]Few-shot Video-to-Video Synthesis https://arxiv.org/abs/1910.12713)

  • [33]Flow Guided Transformable Bottleneck Networks for Motion Retargeting (https://arxiv.org/abs/2106.07771)

  • [34]End-to-end Recovery of Human Shape and Pose, CVPR'2018 (https://arxiv.org/abs/1712.06584)

  • [35]VIBE: Video Inference for Human Body Pose and Shape Estimation, CVPR'2020 (https://arxiv.org/abs/1912.05656)

  • [36]PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization, ICCV'2019 (https://arxiv.org/abs/1905.05172)

  • [37]PIFuHD: Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization, CVPR2020 (https://arxiv.org/abs/2004.00452)

  • [38]Arch: Animatable reconstruction of clothed humans, CVPR'2020 (https://arxiv.org/abs/2004.04572)

  • [39]SCANimate: Weakly Supervised Learning of Skinned Clothed Avatar Networks, CVPR'2021 (https://arxiv.org/abs/2104.03313)

  • [40]S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling, CVPR'2021 (https://arxiv.org/abs/2101.06571)

  • [41]Monocular Real-Time Volumetric Performance Capture, ECCV2020 (https://arxiv.org/abs/2007.13988)


如果觉得有用,就请分享到朋友圈吧!

△点击卡片关注极市平台,获取 最新CV干货

公众号后台回复“79”获取CVPR 2021:TransT 直播链接~


极市干货
YOLO教程: 一文读懂YOLO V5 与 YOLO V4 大盘点|YOLO 系目标检测算法总览 全面解析YOLO V4网络结构
实操教程: PyTorch vs LibTorch:网络推理速度谁更快? 只用两行代码,我让Transformer推理加速了50倍 PyTorch AutoGrad C++层实现
算法技巧(trick): 深度学习训练tricks总结(有实验支撑) 深度强化学习调参Tricks合集 长尾识别中的Tricks汇总(AAAI2021
最新CV竞赛: 2021 高通人工智能应用创新大赛 CVPR 2021 | Short-video Face Parsing Challenge 3D人体目标检测与行为分析竞赛开赛,奖池7万+,数据集达16671张!


CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~



觉得有用麻烦给个在看啦~   
登录查看更多
0

相关内容

【CVPR2021】深度学习细粒度视觉分析
专知会员服务
35+阅读 · 2021年6月23日
专知会员服务
61+阅读 · 2021年6月22日
专知会员服务
22+阅读 · 2021年5月1日
【CVPR2021】动态度量学习
专知会员服务
39+阅读 · 2021年3月30日
【CVPR2021】CausalVAE: 引入因果结构的解耦表示学习
专知会员服务
36+阅读 · 2021年3月28日
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
多模态视觉语言表征学习研究综述
专知会员服务
186+阅读 · 2020年12月3日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
计算机视觉中的自监督表示学习近期进展
PaperWeekly
9+阅读 · 2020年10月5日
【资源】领域自适应相关论文、代码分享
专知
30+阅读 · 2019年10月12日
一种行人重识别监督之下的纹理生成网络
人工智能前沿讲习班
4+阅读 · 2019年6月30日
必读!TOP10生成对抗网络GAN论文(附链接)
数据派THU
16+阅读 · 2019年3月24日
2018年有意思的几篇GAN论文
专知
21+阅读 · 2019年1月5日
当机器学习遇上计算机视觉
深度学习
6+阅读 · 2018年5月14日
【学界】 李飞飞学生最新论文:利用场景图生成图像
GAN生成式对抗网络
15+阅读 · 2018年4月9日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Arxiv
0+阅读 · 2021年10月12日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
19+阅读 · 2020年7月21日
Arxiv
43+阅读 · 2019年12月20日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
5+阅读 · 2018年5月1日
VIP会员
相关VIP内容
【CVPR2021】深度学习细粒度视觉分析
专知会员服务
35+阅读 · 2021年6月23日
专知会员服务
61+阅读 · 2021年6月22日
专知会员服务
22+阅读 · 2021年5月1日
【CVPR2021】动态度量学习
专知会员服务
39+阅读 · 2021年3月30日
【CVPR2021】CausalVAE: 引入因果结构的解耦表示学习
专知会员服务
36+阅读 · 2021年3月28日
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
多模态视觉语言表征学习研究综述
专知会员服务
186+阅读 · 2020年12月3日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
相关资讯
计算机视觉中的自监督表示学习近期进展
PaperWeekly
9+阅读 · 2020年10月5日
【资源】领域自适应相关论文、代码分享
专知
30+阅读 · 2019年10月12日
一种行人重识别监督之下的纹理生成网络
人工智能前沿讲习班
4+阅读 · 2019年6月30日
必读!TOP10生成对抗网络GAN论文(附链接)
数据派THU
16+阅读 · 2019年3月24日
2018年有意思的几篇GAN论文
专知
21+阅读 · 2019年1月5日
当机器学习遇上计算机视觉
深度学习
6+阅读 · 2018年5月14日
【学界】 李飞飞学生最新论文:利用场景图生成图像
GAN生成式对抗网络
15+阅读 · 2018年4月9日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
相关论文
Arxiv
0+阅读 · 2021年10月12日
Arxiv
19+阅读 · 2021年1月14日
Arxiv
19+阅读 · 2020年7月21日
Arxiv
43+阅读 · 2019年12月20日
Adversarial Transfer Learning
Arxiv
12+阅读 · 2018年12月6日
Arxiv
5+阅读 · 2018年5月1日
Top
微信扫码咨询专知VIP会员