Every recent image-to-image translation model inherently requires either image-level (i.e. input-output pairs) or set-level (i.e. domain labels) supervision. However, even set-level supervision can be a severe bottleneck for data collection in practice. In this paper, we tackle image-to-image translation in a fully unsupervised setting, i.e., neither paired images nor domain labels. To this end, we propose a truly unsupervised image-to-image translation model (TUNIT) that simultaneously learns to separate image domains and translates input images into the estimated domains. Experimental results show that our model achieves comparable or even better performance than the set-level supervised model trained with full labels, generalizes well on various datasets, and is robust against the choice of hyperparameters (e.g. the preset number of pseudo domains). Furthermore, TUNIT can be easily extended to semi-supervised learning with a few labeled data.


翻译:每一个最近的图像到图像翻译模式都必然需要图像级别(即输入-输出对配)或设定级别(即域名标签)监督。 但是,即使是设定级别监督实际上也可能是数据收集的严重瓶颈。 在本文中,我们在完全不受监督的环境中处理图像到图像翻译,即既不配对图像,也没有域名标签。 为此,我们提议建立一个真正不受监督的图像到图像翻译模式(TUNIT),该模式同时学习将图像区域分开,并将输入图像转换到估计区域。 实验结果显示,我们的模型的性能比在全标签下训练的设定级别监督模式要好, 在所有数据集上非常精辟, 并且与选择双参数(例如,伪域的预设数) 相抗力。 此外, TUNIT可以很容易地扩展为使用少数标签数据进行半超强的学习。

0
下载
关闭预览

相关内容

知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
109+阅读 · 2020年6月10日
专知会员服务
61+阅读 · 2020年3月19日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
36+阅读 · 2020年3月3日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
8+阅读 · 2018年5月1日
Arxiv
6+阅读 · 2018年2月26日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员