MICCAI 2020 | 腾讯开源大规模X光预训练模型及代码

2020 年 11 月 2 日 CVer

点击上方“CVer”,选择加"星标"置顶

重磅干货,第一时间送达

本文转载自:Deep Learning Engine



论文导读


 预训练模型能够加速任务模型收敛速度和提升模型性能。自然场景图像有ImageNet预训练模型,但此类数据和医学图像差异较大。因此腾讯提出了一个基于70万X光数据进行训练的模型,以作为该领域的预训练模型。模型及训练代码已开源!


论文地址:

https://arxiv.org/abs/2007.07423


代码地址:

https://github.com/funnyzhou/C2L_MICCAI2020







  比较学习
超越ImageNet 预训练


摘   要


Abstract



本期分享一篇MICCAI2020的一篇关于医学图像的预训练模型论文《Comparing to Learn: Surpassing ImageNet Pretraining on Radiographs by Comparing Image Representations》。在深度学习领域,预训练模型有着举足轻重的地位,特别是以自然场景数据为代表的ImageNet预训练模型是大多任务模型初始化参数的不二选择。对于医学图像来说,其和自然场景数据差异大。医学任务模型用ImageNet预训练模型就不太合适。因此,作者提出了一种新型的预训练方法(C2L),利用该方法在70万X光无标注数据上进行训练。利用预训练模型在不同的任务和数据集上均取得了优于ImageNet预训练模型更好的SOTA结果。



01


Introduction

       



ImageNet预训练模型通过迁移学习应用到2D医学图像分析中已被证实是有效的。大量的实验证明,预训练模型与从头开始训练相比,模型能够快速收敛并且能获得更好的准确率。这样的结果主要归因于两个因素:高效的深度神经网络算法以及从大量自然场景图像中学得的通用特征表达。但显而易见的问题是医学图像和自然场景图像是具有显著差异的。那么能否通过某种方法训练一个基于医学数据的预训练模型?


众所周知,医学数据需要该领域专业医师进行标注。这类高质量,多数量的标注数据能够直接提升模型的性能。但医学数据往往因为涉及病人隐私等原因而受到管控和限制,无法获取到大量的带医生诊断结论的数据。那么,开发一种不带标注数据的方法在医学领域就显得尤为重要。一些利用未标注数据进行自监督学习的模型也取得了不错的性能表现,但还无法超过在ImageNet上进行预训练的模型。


通过上述分析,作者提出了一种全新的自监督预训练方法C2L(Compare to Learn)。此方法旨在利用大量的未标注的X光图像预训练一个2D深度学习模型,使得模型能够在有监督信息的条件下,通过对比不同图像特征的差异,提取通用的图像表达。与利用图像修复等代理任务方法不同的是,作者提出的方法是一种自定义特征表达相似性度量。文中重点关注图像特征级别的对比,通过混合每个批次的图像和特征,提出了结构同质性和异质性的数据配对方法。设计了一种基于动量的“老师-学生”(teacher-student architecture)对比学习网络结构。“老师”网络和“学生”网络共享同一个网络结构,但是更新方式不同,其伪代码如下。


       



02


Proposed Method


       


Batch Mixup and Feature Mixup:每一个批次的输入图像数据,首先进行随机数据增强(如随机裁剪,旋转等),生成两组数据。与传统的图像级混合方法不同,作者提出了一种基于批次级的混合方法。假设每个批次 包含Z张图像,其中 。随机打乱 ,构造配对数据。


其中, ~ Beta(1.0,1.0)分布。通过实验发现,对两组数据使用相同的混合因子 和数据打乱方法对模型的性能有提升效果。作者对特征的表达也使用了相同的数据混合策略。
其中指数因子 控制着动量的程度。如伪代码及流程图所示,"教师"网络 同时利用自身和"学生"网络进行更新。而在实际中,作者输入 到"学生"模型,输入 到"教师"模型。分别使用 表示"学生"网络和"老师"网络的输出特征向量。
Homogeneous and Heterogeneous Pairs:为了构造同质数据对,作者假设数据增强(包括文中用到的mixing operation混合操作)只会略微改变训练数据的分布。那么每个同质性配对的数据包含的是经过一些列同样的数据增强,批次数据混合以及特征混合的数据。对于同质数据对,只需要将当前特征和所有的已经存储的队列中特征进行对比。

Feature Comparison, Memory Q and Loss Function:如伪代码如所示,C2L模型优化最小化同质数据对之间的距离,最大化异质数据之间的距离。

解读上述公式,作者首先通过设计两组不同数据增强后的数据( ),分别对应"学生"和"老师"两个模型。对于学生模型,只进行batch mixup,也就是将一个批次内的数据进行混合,输出两个特征向量 ,分别对应混合前和混合后数据特征;对于"老师"模型,多加了一个Feature mixup,也就是在输出的特征向量处进行了再次的混合操作。在损失函数的设计上,利用交叉熵损失函数,进行优化(伪代码中已写得非常清楚)。在训练的过程中,会有一个记忆队列Q,保存特征向量以进行迭代优化。
消融实验发现,本文提出的混合方法相比与原始的混合方法有约1.6%的性能提升。使用文中定义的数据增强策略能够提升数据的多样性,增加网络提取不同X光数据特征的能力。
使用C2L模型,在后续任务上进行模型的微调
与预训练模型Model Genesis以及在ImageNet和MoCo数据集上进行预训练的模型相比,使用ResNet-18和DenseNet-121网络结构在C2L预训练模型的基础上做Fine-tune,性能提升显著。后续的实验均验证了C2L预训练模型的优越性,也从侧面证明了预训练模型对性能提升的帮助。


          



03


DATASETS & Results



       

预训练:ImageNet 预训练使用了约一百万带标注的数据。本文作者使用了

 ChestXray14,MIMIC-CXR,CheXpert和MURA四种不带标签的约70万数据进行无监督预训练。只用了ChestX-ray14 进行消融实验以选择合适的超参数。

实现细节以及消融实验:由于已开源,这里就不展开细说。

首先看看Mix方法做的实验结果,发现Batch mixing 和Feature mixing提升明显。



对比数据增强策略和记忆队列Q保存特征长度对性能的影响。



ChestX-ray14数据集上性能的对比。C2L模型性能提升显著。



CheXpert数据集中,预训练模型及MG等性能的对比,C2L约有1%的提升。


Kaggl肺炎数据集不同阈值下mAP,C2L也有不错的表现。



       

04


Conclusion


       

作者提出了一种自监督学习方法C2L,利用次方法从无标签医学数据中提取这类数据的特征表达。这种方法通过利用数据间的相关性作为监督信息而无需额外人工标注数据。

           

05


结语


       

作者从问题的发现,Idea的提出以及后续的实验验证。笔者作以下几点个人的思考和总结:
1、预训练模型对任务模型进行参数初始化,再进行Fine-tune是可以在一定程度上提升模型性能以及加快模型收敛速度的;2、预训练模型数据与任务模型数据的相关性影响性能。即如果任务模型数据和预训练数据强相关,那么性能的提升和训练收敛速度的提速都较明显;而如果数据差异较大,可能对任务模型有帮助,但帮助不会太大;3、作者提出的方法从数据相关性构造监督信息,然后对无标签数据进行训练以达到预训练模型的效果。此方法可以在实际工作中,结合任务需求及数据集大小,参照该方法训练自己的预训练模型;4、开源70万量级的X光预训练模型和训练代码是真的香;5、数据决定了算法模型的上限!深入挖掘数据,也许可以进一步找到提升天花板高度的梯子!

重磅!CVer-医疗影像交流群成立


扫码添加CVer助手,可申请加入CVer-医疗影像 微信交流群,目前已满1500人。


同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。


一定要备注:研究方向+地点+学校/公司+昵称(如医疗影像+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群



▲长按加微信群


▲长按关注CVer公众号

整理不易,请给CVer点赞和在看

登录查看更多
0

相关内容

预训练模型是深度学习架构,已经过训练以执行大量数据上的特定任务(例如,识别图片中的分类问题)。这种训练不容易执行,并且通常需要大量资源,超出许多可用于深度学习模型的人可用的资源。
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
小米在预训练模型的探索与优化
专知会员服务
18+阅读 · 2020年12月31日
专知会员服务
41+阅读 · 2020年12月1日
【NeurIPS2020-华为】DynaBERT:具有自适应宽度和深度的动态BERT
【NeurIPS 2020】对比学习全局和局部医学图像分割特征
专知会员服务
43+阅读 · 2020年10月20日
专知会员服务
219+阅读 · 2020年8月1日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
一文读懂最强中文NLP预训练模型ERNIE
AINLP
25+阅读 · 2019年10月22日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
深度解读:小米AI实验室AutoML团队最新成果FairNAS
PaperWeekly
32+阅读 · 2019年7月11日
CVPR 2019 论文解读精选
AI研习社
7+阅读 · 2019年6月16日
深度学习与医学图像分析
人工智能前沿讲习班
40+阅读 · 2019年6月8日
Arxiv
8+阅读 · 2018年5月15日
VIP会员
相关VIP内容
【AAAI2021】基于双任务一致性的半监督医学图像分割
专知会员服务
30+阅读 · 2021年2月7日
小米在预训练模型的探索与优化
专知会员服务
18+阅读 · 2020年12月31日
专知会员服务
41+阅读 · 2020年12月1日
【NeurIPS2020-华为】DynaBERT:具有自适应宽度和深度的动态BERT
【NeurIPS 2020】对比学习全局和局部医学图像分割特征
专知会员服务
43+阅读 · 2020年10月20日
专知会员服务
219+阅读 · 2020年8月1日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
相关资讯
一文读懂最强中文NLP预训练模型ERNIE
AINLP
25+阅读 · 2019年10月22日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
深度解读:小米AI实验室AutoML团队最新成果FairNAS
PaperWeekly
32+阅读 · 2019年7月11日
CVPR 2019 论文解读精选
AI研习社
7+阅读 · 2019年6月16日
深度学习与医学图像分析
人工智能前沿讲习班
40+阅读 · 2019年6月8日
Top
微信扫码咨询专知VIP会员