Paired multi-modality medical images, can provide complementary information to help physicians make more reasonable decisions than single modality medical images. But they are difficult to generate due to multiple factors in practice (e.g., time, cost, radiation dose). To address these problems, multi-modality medical image translation has aroused increasing research interest recently. However, the existing works mainly focus on translation effect of a whole image instead of a critical target area or Region of Interest (ROI), e.g., organ and so on. This leads to poor-quality translation of the localized target area which becomes blurry, deformed or even with extra unreasonable textures. In this paper, we propose a novel target-aware generative adversarial network called TarGAN, which is a generic multi-modality medical image translation model capable of (1) learning multi-modality medical image translation without relying on paired data, (2) enhancing quality of target area generation with the help of target area labels. The generator of TarGAN jointly learns mapping at two levels simultaneously - whole image translation mapping and target area translation mapping. These two mappings are interrelated through a proposed crossing loss. The experiments on both quantitative measures and qualitative evaluations demonstrate that TarGAN outperforms the state-of-the-art methods in all cases. Subsequent segmentation task is conducted to demonstrate effectiveness of synthetic images generated by TarGAN in a real-world application. Our code is available at https://github.com/2165998/TarGAN.


翻译:Paired多式医疗图象可以提供补充信息,帮助医生作出比单一模式医疗图象更合理的决定。但是,由于实际中存在多种因素(例如时间、成本、辐射剂量),很难产生这些图象。为了解决这些问题,多式医疗图象翻译最近引起了越来越多的研究兴趣。然而,现有工作主要侧重于整个图象的翻译效果,而不是关键目标区域或利益区域(ROI)的翻译效果,例如器官等。这导致局部目标区域翻译质量差,变得模糊、畸形,甚至带有不合理的图象。在本文件中,我们提议建立一个名为TarGAN的新的目标观测基因对抗网络,这是一个通用的多式医学图象翻译模型,能够(1) 学习多式医学图象翻译,而不必依赖配对的数据,(2) 在目标区域标签的帮助下提高目标区域(ROI)的生成质量。TarGAN的生成者在两个层次上学习制图——整个图像翻译图象图象和目标区域翻译图象。在本文中,两个地图图象-amare-arealal-andalalimalal-laction aculttural-laction a latial-cument a laction a laction acurrational-currational-I-I-currations acultdududududustral-Ial-I-Ial-I-I-I-I a ex a ex a lab-tradal-tradal-cument acumental-cumental-cumental-cument acumental-cumental-cumental-cumental-cumental-cumental-cumental-cumental-cumental-cub-cuments in in in ins a lad a lamental-cumental-cubisal-cumental-cument a lamental-cumental-cumental-cumental-cumental-cumental-cumental-cumental a laments a lad lad lad lad-cumental-cumental-I-I-tra a lactions a laction lad lad lad lad la la lad la

0
下载
关闭预览

相关内容

生成对抗网络 (Generative Adversarial Network, GAN) 是一类神经网络,通过轮流训练判别器 (Discriminator) 和生成器 (Generator),令其相互对抗,来从复杂概率分布中采样,例如生成图片、文字、语音等。GAN 最初由 Ian Goodfellow 提出,原论文见 Generative Adversarial Networks

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
201+阅读 · 2019年9月30日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
Generative Adversarial Networks: A Survey and Taxonomy
Arxiv
8+阅读 · 2018年5月1日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关VIP内容
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
201+阅读 · 2019年9月30日
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
Top
微信扫码咨询专知VIP会员