In pathology, whole-slide images (WSI) based survival prediction has attracted increasing interest. However, given the large size of WSIs and the lack of pathologist annotations, extracting the prognostic information from WSIs remains a challenging task. Previous studies have used multiple instance learning approaches to combine the information from multiple randomly sampled patches, but different visual patterns may contribute differently to prognosis prediction. In this study, we developed a multi-head attention approach to focus on various parts of a tumor slide, for more comprehensive information extraction from WSIs. We evaluated our approach on four cancer types from The Cancer Genome Atlas database. Our model achieved an average c-index of 0.640, outperforming two existing state-of-the-art approaches for WSI-based survival prediction, which have an average c-index of 0.603 and 0.619 on these datasets. Visualization of our attention maps reveals each attention head focuses synergistically on different morphological patterns.


翻译:在病理学方面,基于全滑动图像(WSI)的存活预测引起了越来越多的兴趣。然而,鉴于世界滑动图像(WSI)的庞大规模和缺乏病理学说明,从世界滑动图像(WSI)中提取预测性信息仍是一项艰巨的任务。以前的研究采用多个实例学习方法,将来自多个随机抽样采集的补丁的信息结合起来,但不同的视觉模式可能对预测性预测有不同的贡献。在这项研究中,我们开发了一个多点关注方法,将重点放在肿瘤幻灯片的各个部分,以便从世界滑动中更全面地提取信息。我们从癌症基因组Atlas数据库中评估了四种癌症类型的方法。我们的模式实现了平均为0.640的C-index,优于现有两种基于WSI的生存预测的最新方法,这些数据集的平均c-index为0.603和0.619。我们的注意力分布图的视觉化显示每个关注点都以不同形态模式为协同重点。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
常识知识的获取与推理,171页ppt
专知会员服务
61+阅读 · 2021年11月9日
最新《Transformers模型》教程,64页ppt
专知会员服务
310+阅读 · 2020年11月26日
专知会员服务
60+阅读 · 2020年3月19日
专知会员服务
86+阅读 · 2019年12月13日
LibRec 精选:EfficientNet、XLNet 论文及代码实现
LibRec智能推荐
5+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Mask2Former for Video Instance Segmentation
Arxiv
1+阅读 · 2021年12月20日
Arxiv
0+阅读 · 2021年12月20日
Arxiv
9+阅读 · 2021年2月8日
Area Attention
Arxiv
5+阅读 · 2019年5月23日
VIP会员
相关VIP内容
常识知识的获取与推理,171页ppt
专知会员服务
61+阅读 · 2021年11月9日
最新《Transformers模型》教程,64页ppt
专知会员服务
310+阅读 · 2020年11月26日
专知会员服务
60+阅读 · 2020年3月19日
专知会员服务
86+阅读 · 2019年12月13日
相关资讯
LibRec 精选:EfficientNet、XLNet 论文及代码实现
LibRec智能推荐
5+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
【泡泡一分钟】用于评估视觉惯性里程计的TUM VI数据集
泡泡机器人SLAM
11+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员