Image virtual try-on aims to fit a garment image (target clothes) to a person image. Prior methods are heavily based on human parsing. However, slightly-wrong segmentation results would lead to unrealistic try-on images with large artifacts. Inaccurate parsing misleads parser-based methods to produce visually unrealistic results where artifacts usually occur. A recent pioneering work employed knowledge distillation to reduce the dependency of human parsing, where the try-on images produced by a parser-based method are used as supervisions to train a "student" network without relying on segmentation, making the student mimic the try-on ability of the parser-based model. However, the image quality of the student is bounded by the parser-based model. To address this problem, we propose a novel approach, "teacher-tutor-student" knowledge distillation, which is able to produce highly photo-realistic images without human parsing, possessing several appealing advantages compared to prior arts. (1) Unlike existing work, our approach treats the fake images produced by the parser-based method as "tutor knowledge", where the artifacts can be corrected by real "teacher knowledge", which is extracted from the real person images in a self-supervised way. (2) Other than using real images as supervisions, we formulate knowledge distillation in the try-on problem as distilling the appearance flows between the person image and the garment image, enabling us to find accurate dense correspondences between them to produce high-quality results. (3) Extensive evaluations show large superiority of our method (see Fig. 1).


翻译:图像虚拟试镜旨在将服装图像( 目标衣物) 与个人图像相匹配。 先前的方法在很大程度上基于人类剖析。 但是, 略微偏差的分解结果将导致与大型艺术品的实验性图像发生不切实际的试镜。 不精确的分解会误导以剖析器为基础的方法产生视觉上不现实的结果, 在艺术品通常出现的情况下, 我们提出一种新的方法, “ 教师- 教师- 学生” 知识蒸馏, 它可以产生高度摄影现实化的图像, 与以前的艺术相比, 具有一些吸引人的优势 。 (1) 与现有的工作不同, 我们的方法将学生模拟以剖析器为基础的模型的试镜上试镜能力。 然而, 学生的图像质量被基于剖析器的模型所束缚。 为了解决这个问题, 我们提出了一个新的方法, “ 教师- 教师- 测试” 知识蒸馏法, 与先前的艺术相比, 有几种吸引人的优势。 (1) 与现有的工作不同, 我们的方法将假图像 模拟我们所制作的图像 的精确度比, 高级的图像流, 能够用真实的 方法, 将真实的 复制人- 方法, 将真实的图像 复制方法, 将真实的 复制方法, 复制 展示的 以真实的 方法, 复制方法, 复制的 复制方法, 将真实的 以 复制的 复制的 方法, 复制的, 方法, 方法,,,,, 复制的 将 复制的 方法,, 方法,, 将 复制的 复制的 复制的 方法, 方法, 复制的 复制的 复制的 方法, 复制的 复制的 复制的 方法,,,, 方法, 方法,, 复制的 复制的 方法, 复制的 方法, 复制的 复制的,, 方法, 方法, 方法,, 复制的 复制的 复制的 复制的 复制的 复制的 复制的 方法, 的 的 的 的 的 的 的,,,, 复制的 复制的 复制的 复制的 复制的 复制的 的

0
下载
关闭预览

相关内容

Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
【论文】结构GANs,Structured GANs,
专知会员服务
14+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
5+阅读 · 2019年6月5日
Adversarial Metric Attack for Person Re-identification
Arxiv
4+阅读 · 2019年1月14日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员