Whole slide image (WSI) classification is a fundamental task for the diagnosis and treatment of diseases; but, curation of accurate labels is time-consuming and limits the application of fully-supervised methods. To address this, multiple instance learning (MIL) is a popular method that poses classification as a weakly supervised learning task with slide-level labels only. While current MIL methods apply variants of the attention mechanism to re-weight instance features with stronger models, scant attention is paid to the properties of the data distribution. In this work, we propose to re-calibrate the distribution of a WSI bag (instances) by using the statistics of the max-instance (critical) feature. We assume that in binary MIL, positive bags have larger feature magnitudes than negatives, thus we can enforce the model to maximize the discrepancy between bags with a metric feature loss that models positive bags as out-of-distribution. To achieve this, unlike existing MIL methods that use single-batch training modes, we propose balanced-batch sampling to effectively use the feature loss i.e., (+/-) bags simultaneously. Further, we employ a position encoding module (PEM) to model spatial/morphological information, and perform pooling by multi-head self-attention (PSMA) with a Transformer encoder. Experimental results on existing benchmark datasets show our approach is effective and improves over state-of-the-art MIL methods.
翻译:整个幻灯片图像( WSI) 分类是诊断和治疗疾病的一项基本任务; 但是, 准确标签的校正是耗时且限制完全监督方法的应用。 要解决这个问题, 多实例学习( MIL) 是一种受欢迎的方法, 将它分类为监督不力的学习任务, 只使用幻灯片级标签。 虽然目前的 MIL 方法将关注机制的变式应用于重量实例特征, 并采用较强模型, 但很少注意数据分布的特性。 在这项工作中, 我们提议使用最大( 关键) 特征统计来重新校准一个 WSI 袋( Instations) 的分布。 我们假设, 在二进制 MIL 中, 正面包的特性比负值大, 因此我们可以执行这个模型, 尽量扩大具有基本特征损失的包之间的差异, 将正数包作为分布的模型, 模拟积极的包作为分流模式, 实现这一点与现有的单批培训模式不同的现有MIL 方法不同, 我们提议进行平衡的抽样取样, 有效地使用特征损失 模型 i. (+/ ) 和 软质 软质 软模 模 的自我 模 模 模 模 模 模 模 模 模 模 模 模 模 和 模 模 模 模 模 模 模 模 模 模版 模版 模 模 模版 模 模 模 模 模 模 模 模 模 模 模版 模 模 模 模 模版 模 模 模版 模版 模 模版 模版 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模 模版 模 模 模 模 模 模 模