Accurate reconstruction of cardiac anatomy from sparse clinical images remains a major challenge in patient-specific modeling. While neural implicit functions have previously been applied to this task, their application to mapping anatomical consistency across subjects has been limited. In this work, we introduce Neural Implicit Heart Coordinates (NIHCs), a standardized implicit coordinate system, based on universal ventricular coordinates, that provides a common anatomical reference frame for the human heart. Our method predicts NIHCs directly from a limited number of 2D segmentations (sparse acquisition) and subsequently decodes them into dense 3D segmentations and high-resolution meshes at arbitrary output resolution. Trained on a large dataset of 5,000 cardiac meshes, the model achieves high reconstruction accuracy on clinical contours, with mean Euclidean surface errors of 2.51$\pm$0.33 mm in a diseased cohort (n=4549) and 2.3$\pm$0.36 mm in a healthy cohort (n=5576). The NIHC representation enables anatomically coherent reconstruction even under severe slice sparsity and segmentation noise, faithfully recovering complex structures such as the valve planes. Compared with traditional pipelines, inference time is reduced from over 60 s to 5-15 s. These results demonstrate that NIHCs constitute a robust and efficient anatomical representation for patient-specific 3D cardiac reconstruction from minimal input data.


翻译:从稀疏临床图像中精确重建心脏解剖结构,仍是面向患者特异性建模领域的一项主要挑战。虽然神经隐式函数此前已被应用于此任务,但其在跨个体映射解剖一致性方面的应用仍然有限。在本工作中,我们引入了神经隐式心脏坐标(NIHCs),这是一种基于通用心室坐标的标准化隐式坐标系,为人类心脏提供了一个共同的解剖参考框架。我们的方法直接从有限数量的2D分割(稀疏采集)预测NIHCs,随后将其解码为任意输出分辨率下的密集3D分割和高分辨率网格。该模型在包含5,000个心脏网格的大型数据集上进行训练,在临床轮廓上实现了高重建精度:在疾病队列(n=4549)中平均欧几里得表面误差为2.51$\pm$0.33 mm,在健康队列(n=5576)中为2.3$\pm$0.36 mm。NIHC表示即使在严重的切片稀疏性和分割噪声下,也能实现解剖学上连贯的重建,忠实地恢复诸如瓣膜平面等复杂结构。与传统流程相比,推理时间从超过60秒减少到5-15秒。这些结果表明,NIHCs构成了一种鲁棒且高效的解剖表示方法,适用于从最少输入数据进行面向患者特异性的3D心脏重建。

0
下载
关闭预览

相关内容

【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员