【动态】 伯克利最新研究:GANs在字体风格迁移上的应用

2018 年 3 月 21 日 GAN生成式对抗网络

来源:AI科技评论

编者按:怎样能快速生成风格相同的字体呢?伯克利 AI 研究院最新发表的一篇博客告诉你他们最新的研究。

左:给出的电影海报,右:由MC-GAN生成的新电影片名

文字是平面设计中很突出的视觉元素。艺术家投入大量时间来设计不同的字形,使得它与其他元素在形状和纹理上相协调。这个过程是需要大量劳动力的,艺术家通常只设计标题或注释所需的字形子集,这使得设计一旦完成后,要想将观察到的字体形式迁移到自己的项目中或改变文本变得很困难。

字形合成的早期研究主要集中在轮廓的几何建模上,限于特定的字形拓扑(例如,不能应用于装饰性文字或手写字形),不能用于图像输入。随着深度神经网络的兴起,研究人员已经研究了从图像中建模字形的方法。此外,与局部观察一致的人工合成数据是计算机视觉和图形中的一个有趣问题,例如多视图图像生成,完成图像中的缺失区域以及生成 3D 形状。字体数据就是一个提供了纯净的风格和内容的因式分解示例。

有条件生成对抗网络(cGANS)[1] 的最新进展在许多生成应用中取得了成功。但是,它们只在相当专业化的领域才能做到最好,而在一般的或多领域的风格转移中表现的一般。同样,直接用于生成字体时,cGAN 模型会产生重要的人为因素。例如,鉴于以下五个字母:

有条件生成对抗网络模型在生成具有相同样式的 26 个字母中表现的并不成功:


适用于少数字体样式转换的多内容生成对抗网络


我们没有为所有可能的字体训练单一网络,而是设计了多内容的 GAN 体系结构 [2],为每个观察到的字符集重新定制了一个神奇网络(只有少数观察到的字型)。该模型考虑沿着网络层的频道和风格(即字形装饰)的内容(即,A-Z 字形)将给定的字形的风格转移到未看到的字形的内容。多内容的 GAN 模型由一个堆叠的 cGAN 架构组成,用于预测粗略的字形形状,以及一个装饰网络来预测最终字形的颜色和纹理。第一个称为 GlyphNet 的网络预测了字形蒙版,而第二个网络称为 OrnaNet,用于对来自第一个网络的生成的字形进行颜色和装饰。每个子网络都遵循有条件的生成对抗网络(cGAN)体系结构,该体系结构因其特有的雕刻字形或装饰预测目的而修改。

网络架构


下面是 GlyphNet 的示意图,用于从一组训练字体中学习字体流形的一般形状。GlyphNet 的输入和输出是为每个字母分配通道的字形堆栈。在每次训练迭代中,x1 包含随机选择的 y1 个字形子集,其余输入通道被清零。

通过这种新颖的字形堆栈设计,不同字形之间的相互关系可通过网络渠道获知,以便自动传输其样式。以下图表通过结构相似性(SSIM)度量对随机设置的 1500 个字体示例的这种相关性进行表示。计算每个生成的字形与其基本事实之间的结构相似性时,一次只观察一个字母就可以找到 25 个分布。这些图显示了当字母β被观察到时(蓝色)与其他字母而不是β被给出(红色)时生成字母α的分布α|β。图中显示了两个信息最丰富的给定字母的分布和两个最不明显的信息,分别用于生成 26 个字母。例如,查看图中的第五行,字母 F 和 B 在生成字母 E 时最有建设性,与其他字母相比较,而 I 和 W 是信息量最少的字母。作为其他例子,O 和 C 是用于构造 G 以及用于生成 P 的 R 和 B 的最具指导性的字母。

因此,对于只有少数观察字母的任何想要的字体,预先训练的 GlyphNet 会生成全部 26 个 A-Z 字形。但我们应该如何转移装饰?第二个网络 OrnaNet 采用这些生成的字形,并在经过简单的重塑转换和下图中用 T 表示的灰度信道重复后,使用条件 GAN 体系结构生成富含希望颜色和装饰的输出。OrnaNet 的输入和输出是批量的 RGB 图像,而不是堆栈,其中每个字母的 RGB 通道作为图像重复其由 GlyphNet 生成的相应灰度字形。OrnaNet 中的多个正规化处理程式化字母的掩码与相应字形的偏差。


结果


下面,我们演示使用单个词中给出的字体样式的示例句子。

另外,这里是OrnaNet预测的逐步改进:

参考文献

[1] Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A. Efros. "Image-to-Image Translation with Conditional Adversarial Networks." CVPR 2017.

[2] Samaneh Azadi, Matthew Fisher, Vladimir Kim, Zhaowen Wang, Eli Shechtman, and Trevor Darrell. "Multi-Content GAN for Few-Shot Font Style Transfer." CVPR 2018.

高质量延伸阅读

【学界】OpenPV:中科院研究人员建立开源的平行视觉研究平台

【征稿通知】IEEE IV 2018“智能车辆中的平行视觉”研讨会

【学界】基于平行视觉的特定场景下行人检测

【学界】ParallelEye:面向交通视觉研究构建的大规模虚拟图像集

【CFP】Virtual Images for Visual Artificial Intelligence

【最详尽的GAN介绍】王飞跃等:生成式对抗网络 GAN 的研究进展与展望

【智能自动化学科前沿讲习班第1期】王飞跃教授:生成式对抗网络GAN的研究进展与展望

【智能自动化学科前沿讲习班第1期】王坤峰副研究员:GAN与平行视觉

【重磅】平行将成为一种常态:从SimGAN获得CVPR 2017最佳论文奖说起

【平行讲坛】平行图像:图像生成的一个新型理论框架

【深度】AI版“双手互搏”有多牛?对抗性神经网络凭啥入选MIT2018十大突破性技术?

【征稿】神经计算专刊Virtual Images for Visual Artificial Intelligence

【观点】如何可视化卷积网络分类图像时关注的焦点

【干货】PyTorch实例:用ResNet进行交通标志分类

【深度】DeepMind提出图形的「深度生成式模型」,可实现「任意」图形的生成

【学界】CVPR 2018 | 优于Mask R-CNN,港中文&腾讯优图提出PANet实例分割框架

【干货】GAN做图像翻译的一点总结

登录查看更多
2

相关内容

带条件约束的GAN,在生成模型(D)和判别模型(G)的建模中均引入条件变量y(conditional variable y),使用额外信息y对模型增加条件,可以指导数据生成过程。
专知会员服务
108+阅读 · 2020年5月21日
自回归模型:PixelCNN
专知会员服务
26+阅读 · 2020年3月21日
【论文】结构GANs,Structured GANs,
专知会员服务
14+阅读 · 2020年1月16日
 图像内容自动描述技术综述
专知会员服务
86+阅读 · 2019年11月17日
生成对抗网络的最新研究进展
AI科技评论
5+阅读 · 2019年2月6日
生成对抗网络在图像翻译上的应用【附PPT与视频资料】
人工智能前沿讲习班
7+阅读 · 2018年11月28日
生成对抗网络研究人脸识别领域获进展
中科院之声
8+阅读 · 2018年9月24日
镜头间的风格转换行人重识别
统计学习与视觉计算组
13+阅读 · 2018年8月16日
深度图像先验:无需学习即可生成新图像
论智
45+阅读 · 2017年12月4日
深度卷积对抗生成网络(DCGAN)实战
全球人工智能
14+阅读 · 2017年11月7日
Arxiv
7+阅读 · 2018年11月6日
Video-to-Video Synthesis
Arxiv
9+阅读 · 2018年8月20日
Arxiv
11+阅读 · 2018年3月23日
VIP会员
相关资讯
生成对抗网络的最新研究进展
AI科技评论
5+阅读 · 2019年2月6日
生成对抗网络在图像翻译上的应用【附PPT与视频资料】
人工智能前沿讲习班
7+阅读 · 2018年11月28日
生成对抗网络研究人脸识别领域获进展
中科院之声
8+阅读 · 2018年9月24日
镜头间的风格转换行人重识别
统计学习与视觉计算组
13+阅读 · 2018年8月16日
深度图像先验:无需学习即可生成新图像
论智
45+阅读 · 2017年12月4日
深度卷积对抗生成网络(DCGAN)实战
全球人工智能
14+阅读 · 2017年11月7日
Top
微信扫码咨询专知VIP会员