Self-supervised learning provides an opportunity to explore unlabeled chest X-rays and their associated free-text reports accumulated in clinical routine without manual supervision. This paper proposes a Joint Image Text Representation Learning Network (JoImTeRNet) for pre-training on chest X-ray images and their radiology reports. The model was pre-trained on both the global image-sentence level and the local image region-word level for visual-textual matching. Both are bidirectionally constrained on Cross-Entropy based and ranking-based Triplet Matching Losses. The region-word matching is calculated using the attention mechanism without direct supervision about their mapping. The pre-trained multi-modal representation learning paves the way for downstream tasks concerning image and/or text encoding. We demonstrate the representation learning quality by cross-modality retrievals and multi-label classifications on two datasets: OpenI-IU and MIMIC-CXR


翻译:自我监督的学习为探索未贴标签的胸前X光及其在临床常规中积累的未经人工监督的免费免费报告提供了一个机会,本文件提议建立一个联合图像文本代表学习网络(JoIMTERRNet),用于对胸前X光图像及其放射报告进行预培训。该模型在全球图像-感官水平和地方图像-区域-区域-区域-区域-图像级别上都预先培训了视觉-文字匹配。两者都双向地限制跨Entropy基和基于排名的Triplet匹配损失。区域字匹配是利用关注机制计算,而没有直接监督其绘图。预先培训的多模式代表学习为有关图像和/或文字编码的下游任务铺平了道路。我们通过在两个数据集:OpenI-IU和MIMIM-CXR的跨模式检索和多标签分类,展示了代表学习质量。我们展示了两个数据集的跨模式检索和多标签分类:OpenI-IU和MIC-CXR。

1
下载
关闭预览

相关内容

专知会员服务
89+阅读 · 2021年6月29日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Arxiv
14+阅读 · 2021年3月10日
VIP会员
相关VIP内容
专知会员服务
89+阅读 · 2021年6月29日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Top
微信扫码咨询专知VIP会员