这篇论文是杭州电子科技大学(HDU),悉尼科技大学(UTS),中国科学技术大学(University of Science and Technology of China),百度研究院(Baidu Research)被 IJCAI 2020 录用的文章 Real-World Automatic Makeup via Identity Preservation Makeup Net。
论文标题:Real-World Automatic Makeup via Identity Preservation Makeup Net
论文来源:IJCAI 2020
论文链接:https://github.com/huangzhikun1995/IPM-Net/blob/master/Real_World_Automatic_Makeup_via_Identity_Preservation_Makeup_Net.pdf
代码链接:https://github.com/huangzhikun1995/IPM-Net
之前的工作有什么痛点?
这篇论文提出了什么?解决了什么问题?
提出了一种新的基于现实世界的人脸自动上妆网络 IPM-Net,在完成人脸自动上妆的同时保留了图像中人物的身份信息以及图像背景信息,从而保证了生成图像的真实性。
基于现实世界的需求出发,引入了化妆程度可控的方案,用户可以按照自己的意愿控制生成图像的化妆程度。此外,图像处理的速度也是现实世界中考量的因素之一,在 2080Ti 上,我们的模型每秒可以处理 16 张 256*256 的人脸图像。
对部分来自网络的图像进行换装处理,也得到了不错的效果。但网络图像未经过标注,生成效果受到人脸特征分割效果的限制。
引入 FID 和 LPIPS 作为人脸自动上妆模型的量化指标。采用 FID 来测试生成图像的真实性,LPIPS 来测试生成图像的多样性。
具体实现
为每张目标图像生成掩膜,区分出每张图像中的化妆风格特征和身份信息特征。
提取人脸化妆区域中的纹理。
将目标图像中的人脸化妆区域置灰,加上提取出的掩膜,得到待输入到网络中的图像。
不同 ID 生成新图像对应的损失有:
1.3.2 相同 ID 的重构:
将提供化妆风格的参考图像替换成目标图像,即可将生成图像的过程视为对目标图像的重建。图像的重建可以看作是检验网络是否按照我们设定的功能运行。图像重构对应的损失有:
2.1 定性指标
2.2 定量指标
参考文献
[1] BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network
更多阅读
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。