Oversight AI is an emerging concept in radiology where the AI forms a symbiosis with radiologists by continuously supporting radiologists in their decision-making. Recent advances in vision-language models sheds a light on the long-standing problems of the oversight AI by the understanding both visual and textual concepts and their semantic correspondences. However, there have been limited successes in the application of vision-language models in the medical domain, as the current vision-language models and learning strategies for photographic images and captions call for the web-scale data corpus of image and text pairs which was not often feasible in the medical domain. To address this, here we present a model dubbed Medical Cross-attention Vision-Language model (Medical X-VL), leveraging the key components to be tailored for the medical domain. Our medical X-VL model is based on the following components: self-supervised uni-modal models in medical domain and fusion encoder to bridge them, momentum distillation, sentence-wise contrastive learning for medical reports, and the sentence similarity-adjusted hard negative mining. We experimentally demonstrated that our model enables various zero-shot tasks for oversight AI, ranging from the zero-shot classification to zero-shot error correction. Our model outperformed the current state-of-the-art models in two different medical image database, suggesting the novel clinical usage of our oversight AI model for monitoring human errors. Our method was especially successful in the data-limited setting, which is frequently encountered in the clinics, suggesting the potential widespread applicability in medical domain.


翻译:零样本监督的放射学人工智能(Oversight AI)是一种新兴的概念,通过持续支持放射科医生的决策,使人工智能形成与放射科医生的共生关系。最近视觉语言模型取得的进展为Oversight AI带来了曙光,以理解视觉和文本概念及其语义对应关系。然而,当前的视觉语言模型和针对摄影图像和标题的学习策略需要大规模的图像和文本对数据语料库,而这在医疗领域通常不可行。为了解决这个问题,我们在这里提出了一种模型,称为医学跨感知视觉语言模型(Medical Cross-attention Vision-Language model,简称Medical X-VL),并利用关键组成部分进行了医学领域的定制。我们的医学X-VL模型基于以下组件:医学领域的自监督单模型和将它们连接起来的融合编码器、动量蒸馏、医学报告的句子级对比学习和句子相似度调整的硬负采样。我们实验性地证明了我们的模型实现了各种零样本监督任务,从零样本分类到零样本错误纠正。我们的模型在两个不同的医学图像数据库中优于当前的最先进模型,表明了我们的Oversight AI模型监控人类错误的新型临床应用。我们的方法在数据受限的情况下特别成功,在诊所中经常遇到的这种情况中,构成了潜在的广泛适用性。

0
下载
关闭预览

相关内容

【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
一文了解prompt learning在计算机视觉领域进展
极市平台
7+阅读 · 2022年11月11日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
5+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月28日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
10+阅读 · 2020年11月26日
Arxiv
19+阅读 · 2020年7月21日
Arxiv
15+阅读 · 2018年4月3日
VIP会员
相关VIP内容
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
相关论文
Arxiv
0+阅读 · 2023年5月28日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
10+阅读 · 2020年11月26日
Arxiv
19+阅读 · 2020年7月21日
Arxiv
15+阅读 · 2018年4月3日
相关基金
国家自然科学基金
5+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员