Colorectal cancer is the third most common cause of cancer death worldwide. Optical colonoscopy is the gold standard for detecting colorectal cancer; however, about 25 percent of polyps are missed during the procedure. A vision-based autonomous endorobot can improve colonoscopy procedures significantly through systematic, complete screening of the colonic mucosa. The reliable robot navigation needed requires a three-dimensional understanding of the environment and lumen tracking to support autonomous tasks. We propose a novel multi-task model that simultaneously predicts dense depth and lumen segmentation with an ensemble of deep networks. The depth estimation sub-network is trained in a self-supervised fashion guided by view synthesis; the lumen segmentation sub-network is supervised. The two sub-networks are interconnected with pathways that enable information exchange and thereby mutual learning. As the lumen is in the image's deepest visual space, lumen segmentation helps with the depth estimation at the farthest location. In turn, the estimated depth guides the lumen segmentation network as the lumen location defines the farthest scene location. Unlike other environments, view synthesis often fails in the colon because of the deformable wall, textureless surface, specularities, and wide field of view image distortions, all challenges that our pipeline addresses. We conducted qualitative analysis on a synthetic dataset and quantitative analysis on a colon training model and real colonoscopy videos. The experiments show that our model predicts accurate scale-invariant depth maps and lumen segmentation from colonoscopy images in near real-time.
翻译:皮肤癌是全世界癌症死亡的第三个最常见的原因。 光学结肠镜检查是检测直肠癌的金质标准; 但是, 在程序过程中, 大约25%的聚苯醚被错失了。 基于视觉的自主内分泌可以通过系统、 彻底的检查结肠粘膜, 大大改善结肠镜检查程序。 可靠的机器人导航需要对环境和润滑液跟踪的三维理解, 以支持自主任务。 我们提议了一个新型的多任务模型, 该模型同时预测密密密的深度和润滑分解, 并配有深层网络。 深度估计子网络在视觉合成的指导下, 以自我监督的方式对自我监督的深度进行训练; 润色分泌分泌子网络可以通过系统、 完整的方式改善结肠镜程序。 由于月球处于最深的视觉空间, 润滑度分解有助于在最远处的深度估计。 估计深层将润滑度分解网络作为润滑度网络的定位, 定义最远的模型位置。 与其他环境不同,, 彩色分层分层分解分解分解,, 我们的分解 的图像分析,, 我们的分解 的分解 的分解, 我们的分解 的分解 的分解, 和 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 和 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的