Most statistical learning algorithms rely on an over-simplified assumption, that is, the train and test data are independent and identically distributed. In real-world scenarios, however, it is common for models to encounter data from new and different domains to which they were not exposed to during training. This is often the case in medical imaging applications due to differences in acquisition devices, imaging protocols, and patient characteristics. To address this problem, domain generalization (DG) is a promising direction as it enables models to handle data from previously unseen domains by learning domain-invariant features robust to variations across different domains. To this end, we introduce a novel DG method called Adversarial Intensity Attack (AdverIN), which leverages adversarial training to generate training data with an infinite number of styles and increase data diversity while preserving essential content information. We conduct extensive evaluation experiments on various multi-domain segmentation datasets, including 2D retinal fundus optic disc/cup and 3D prostate MRI. Our results demonstrate that AdverIN significantly improves the generalization ability of the segmentation models, achieving significant improvement on these challenging datasets. Code is available upon publication.


翻译:大部分统计学习算法都依赖于一个过度简化的假设,即训练集和测试集是独立同分布的。但是,在现实的情况下,模型常常会遇到来自新的、不同的领域的数据,这些数据在训练过程中并没有接触到。这在医学成像应用中特别常见,由于不同的采集设备、成像协议和患者特征不同,数据会存在变化。为了解决这个问题,领域泛化(DG)是一个具有前途的方向,因为它使模型能够通过学习跨不同领域的领域不变特征来处理来自以前未见过的领域的数据。为此,我们介绍了一种新的DG方法,称为对抗强度攻击(AdverIN),它利用对抗训练生成具有无限风格的训练数据,增加数据的多样性同时保留关键内容信息。我们在各种多领域分割数据集上进行了广泛的评估实验,包括2D视网膜眼底盘/杯和3D前列腺MRI。我们的结果表明,AdverIN显着提高了分割模型的泛化能力,在这些具有挑战性的数据集上取得了重大改进。代码将在发布后公开。

0
下载
关闭预览

相关内容

近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
从ICML 2022看域泛化(Domain Generalization)最新进展
【资源】领域自适应相关论文、代码分享
专知
31+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
16+阅读 · 2021年7月18日
VIP会员
相关基金
Top
微信扫码咨询专知VIP会员